Центробанк предупредил, что мошенники стали активно использовать дипфейки – поддельные изображения, видео и звуки, созданные при помощи искусственного интеллекта. Злоумышленники получают их через взлом чужого аккаунта в соцсетях или мессенджерах, сообщает ЦБ.
Получив данные, мошенники с помощью нейросетей создают реалистичное видеоизображение или голосовое сообщение человека, которое рассылают его друзьям и родственникам. Как правило,в таком сообщении сгенерированный голос говорит о проблеме - ДТП, болезнь, увольнение - и просит перевести деньги на определенный счет, сообщает ЦБ.
Чтобы не стать жертвой мошенников ЦБ рекомендуют:
- позвонить тому, от чьего лица просят деньги;
- задать в сообщении личный вопрос, ответ на который знает только этот человек.
Ранее стало известно, что Банк России примет новые меры по борьбе с мошенниками.
Фото: Свойкировский/Карина Уткина