Использование дипфейков для телефонного мошенничества

JOURNALIST

Пресса
Закрытый раздел
Сообщения
436
Сбербанк сообщил о массовом применении технологий искусственного интеллекта в мошеннических схемах, основанных на использовании дипфейков. С начала 2025 года зафиксировано более 400 случаев, когда злоумышленники подделывали голоса и видеоизображения сотрудников банков или государственных органов, чтобы убедить граждан перевести деньги на указанные счета. Общий ущерб составил 34 миллиона рублей, что стало первым крупным случаем использования дипфейков в России в таких масштабах.

По данным банка, мошенники применяли программы для синтеза голоса и создания видеороликов, которые выглядели максимально правдоподобно. Жертвы получали звонки или сообщения с просьбой подтвердить транзакцию или предоставить доступ к счету якобы для предотвращения утечки данных. В ряде случаев использовались персональные данные, похищенные из социальных сетей или баз утечек, что усиливало доверие к звонкам. Сбербанк разработал и начал внедрять систему распознавания дипфейков, которая уже позволила заблокировать более 50 подозрительных операций.

Ситуация привлекла внимание Центрального банка России, который призвал другие финансовые организации ускорить внедрение аналогичных технологий защиты. Эксперты прогнозируют, что с развитием ИИ число подобных атак будет расти, особенно в регионах с низким уровнем цифровой грамотности. Власти рассматривают возможность ужесточения законодательства в отношении использования искусственного интеллекта в преступных целях, включая введение штрафов за разработку вредоносного ПО. Расследование продолжается, и полиция работает над установлением источников используемых технологий.
 
Назад
Сверху