Вы зашли на мобильную версию сайта
Перейти на версию для ПК
3

Россиянам рассказали о новом способе обмана с цифровыми копиями умерших людей

Роскачество: мошенники начали использовать цифровые копии умерших людей
В Роскачестве рассказали о мошенничестве с цифровыми копиями умерших людей
В Роскачестве рассказали о мошенничестве с цифровыми копиями умерших людей Фото:

Мошенники начали применять нейросети для создания цифровых копий умерших людей с целью вымогательства и обмана. Об этом сообщили эксперты Центра цифровой экспертизы Роскачества.

«Технология цифрового „воскрешения“ основана на нейросетевых алгоритмах, способных создавать интерактивные цифровые копии умерших людей», — передает ТАСС заявление организации. Данная технология, изначально созданная для терапевтической помощи людям, переживающим утрату близких, теперь используется злоумышленниками. Цифровые копии могут запрашивать денежные переводы под видом финансовой помощи от «умершего родственника», продвигать товары или услуги через скрытую рекламу, а также проходить биометрическую верификацию, используя голос для оформления микрозаймов или подписания электронных документов.

В России уже два года фиксируются случаи, когда дипфейк-видео с образом умерших используются для кражи денег. Такие схемы становятся все более изощренными, так как нейросети позволяют создавать убедительные подделки. Мошенники также используют аккаунты умерших в соцсетях для фишинговых рассылок, которые выглядят достоверно из-за истории переписок. Роскачество призывает граждан быть внимательными к любым сообщениям от аккаунтов умерших родственников и тщательно проверять запросы на финансовую помощь.

Ранее сообщалось, что мошенники стали активно использовать искусственный интеллект для создания дипфейк-видео с изображением родственников с целью обмана россиян и вымогательства денежных средств. Злоумышленники прибегают к нейросетям, способным генерировать правдоподобные видеоролики на основе обычных фотографий пользователей. В подобных видео виртуальный «двойник» обращается к жертве голосом знакомого человека и просит занять деньги.

Сохрани номер URA.RU - сообщи новость первым!

Будьте в числе первых, кто узнает все самые важные новости России и мира! Присоединяйтесь к подписчикам канала URA.RU в главном мессенджере России - MAX. Подписаться на URA.RU.

Каждый день — только самое важное. Читайте дайджест главных событий России и мира от URA.RU, чтобы оставаться в курсе. Подпишись!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
Мошенники начали применять нейросети для создания цифровых копий умерших людей с целью вымогательства и обмана. Об этом сообщили эксперты Центра цифровой экспертизы Роскачества. «Технология цифрового „воскрешения“ основана на нейросетевых алгоритмах, способных создавать интерактивные цифровые копии умерших людей», — передает ТАСС заявление организации. Данная технология, изначально созданная для терапевтической помощи людям, переживающим утрату близких, теперь используется злоумышленниками. Цифровые копии могут запрашивать денежные переводы под видом финансовой помощи от «умершего родственника», продвигать товары или услуги через скрытую рекламу, а также проходить биометрическую верификацию, используя голос для оформления микрозаймов или подписания электронных документов. В России уже два года фиксируются случаи, когда дипфейк-видео с образом умерших используются для кражи денег. Такие схемы становятся все более изощренными, так как нейросети позволяют создавать убедительные подделки. Мошенники также используют аккаунты умерших в соцсетях для фишинговых рассылок, которые выглядят достоверно из-за истории переписок. Роскачество призывает граждан быть внимательными к любым сообщениям от аккаунтов умерших родственников и тщательно проверять запросы на финансовую помощь. Ранее сообщалось, что мошенники стали активно использовать искусственный интеллект для создания дипфейк-видео с изображением родственников с целью обмана россиян и вымогательства денежных средств. Злоумышленники прибегают к нейросетям, способным генерировать правдоподобные видеоролики на основе обычных фотографий пользователей. В подобных видео виртуальный «двойник» обращается к жертве голосом знакомого человека и просит занять деньги.
Комментарии ({{items[0].comments_count}})
Показать еще комментарии
оставить свой комментарий
{{item.comments_count}}

{{item.img_lg_alt}}
{{inside_publication.title}}
{{inside_publication.description}}
Предыдущий материал
Следующий материал
Комментарии ({{item.comments_count}})
Показать еще комментарии
оставить свой комментарий
Загрузка...