Вы зашли на мобильную версию сайта
Перейти на версию для ПК

Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись

Клипарт 7. Нижневартовск, телефон, общение, разговор, звонок
Для подделки голосов мошенники используют нейросеть, отметил Андрей Ефимов Фото:

Мошенники начали использовать нейросеть (искусственный интеллект) для создания поддельных голосовых сообщений. Об этом URA.RU рассказал инженер департамента информационной безопасности ИМБА ИТ Андрей Ефимов.

«Мошенники все чаще применяют искусственный интеллект, включая модели, подобные ChatGPT, для создания голосовых дипфейков — поддельных аудиозаписей. Схема работы мошенников выглядит примерно так: сначала они записывают голосовой образец человека, затем этот образец обрабатывается нейросетью, которая генерирует поддельный голосовой отрывок на основе этого образца. Затем этот отрывок может быть использован мошенниками для обмана других людей. Выбор нейросетей для таких целей обусловлен их способностью генерировать качественные и связные тексты, а также преобразовывать текст в речь. Сейчас эта схема получает все большее распространение и набирает обороты», — объяснил Андрей Ефимов.

По словам собеседника агентства, жертва мошенников может сразу не понять, что общается не с реальным или знакомым человеком. «Вычислить такую схему может быть сложно, так как голосовые дипфейки, созданные с использованием нейросетей, таких как ChatGPT, могут звучать очень реалистично. Однако, при более тщательном анализе, можно обнаружить некоторые признаки подделки, такие как неестественные паузы, неправильное ударение или артикуляция, нелогичные сдвиги в контексте и другие аномалии, которые могут указывать на фальсификацию. Чтобы защититься от таких мошеннических схем, важно быть бдительными и проверять аутентичность голосовых сообщений. Если у вас возникли подозрения, можно попросить дополнительные подтверждения или использовать другие методы коммуникации для проверки информации. Развитие технологий аутентификации голоса и дополнительные меры безопасности в будущем помогут предотвращать и обнаруживать голосовые дипфейки», — добавил Ефимов.

Сохрани номер URA.RU - сообщи новость первым!

Не пропустите ключевые события России и мира — станьте читателем URA.RU в Telegram! Только актуальные новости, без лишнего шума. Подписаться.

Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
Мошенники начали использовать нейросеть (искусственный интеллект) для создания поддельных голосовых сообщений. Об этом URA.RU рассказал инженер департамента информационной безопасности ИМБА ИТ Андрей Ефимов. «Мошенники все чаще применяют искусственный интеллект, включая модели, подобные ChatGPT, для создания голосовых дипфейков — поддельных аудиозаписей. Схема работы мошенников выглядит примерно так: сначала они записывают голосовой образец человека, затем этот образец обрабатывается нейросетью, которая генерирует поддельный голосовой отрывок на основе этого образца. Затем этот отрывок может быть использован мошенниками для обмана других людей. Выбор нейросетей для таких целей обусловлен их способностью генерировать качественные и связные тексты, а также преобразовывать текст в речь. Сейчас эта схема получает все большее распространение и набирает обороты», — объяснил Андрей Ефимов. По словам собеседника агентства, жертва мошенников может сразу не понять, что общается не с реальным или знакомым человеком. «Вычислить такую схему может быть сложно, так как голосовые дипфейки, созданные с использованием нейросетей, таких как ChatGPT, могут звучать очень реалистично. Однако, при более тщательном анализе, можно обнаружить некоторые признаки подделки, такие как неестественные паузы, неправильное ударение или артикуляция, нелогичные сдвиги в контексте и другие аномалии, которые могут указывать на фальсификацию. Чтобы защититься от таких мошеннических схем, важно быть бдительными и проверять аутентичность голосовых сообщений. Если у вас возникли подозрения, можно попросить дополнительные подтверждения или использовать другие методы коммуникации для проверки информации. Развитие технологий аутентификации голоса и дополнительные меры безопасности в будущем помогут предотвращать и обнаруживать голосовые дипфейки», — добавил Ефимов.
Комментарии ({{items[0].comments_count}})
Показать еще комментарии
оставить свой комментарий
{{item.comments_count}}

{{item.img_lg_alt}}
{{inside_publication.title}}
{{inside_publication.description}}
Предыдущий материал
Следующий материал
Комментарии ({{item.comments_count}})
Показать еще комментарии
оставить свой комментарий
Загрузка...