Фишинг с использованием ИИ-дипфейков

V77

Пользователь
Сообщения
14
В 2025 году социальная инженерия достигла нового уровня с массовым распространением фишинговых атак, использующих ИИ-сгенерированные дипфейки. В январе пользователи X начали сообщать о звонках от "родственников" или "коллег", чьи голоса и лица были искусственно воссозданы с помощью нейросетей, чтобы выманить деньги или конфиденциальную информацию. Такие атаки стали возможны благодаря доступности инструментов ИИ, позволяющих создавать реалистичные подделки на основе данных из социальных сетей, что делает их особенно убедительными.

К февралю 2025 года эксперты по кибербезопасности зафиксировали рост подобных инцидентов на 40% по сравнению с концом 2024 года, что вызвало панику среди пользователей и компаний. Злоумышленники часто используют сценарии срочности, например, просьбы о финансовой помощи или предоставлении доступа к корпоративным системам, эксплуатируя доверие жертв. На форумах и в блогах начали появляться инструкции по распознаванию дипфейков, такие как проверка мелких деталей в поведении или использование кодовых фраз, известных только близким.

В марте 2025 года тема стала особенно популярной после громкого случая, когда крупная компания потеряла миллионы из-за того, что сотрудник перевел деньги "генеральному директору", оказавшемуся дипфейком. Это подтолкнуло разработчиков антивирусных программ к интеграции ИИ-фильтров для обнаружения поддельных медиа, а пользователей — к повышению бдительности. Социальные сети переполнены мемами и рассказами о том, как люди чуть не попались на удочку таких атак, подчеркивая необходимость новых подходов к цифровой грамотности.
 
Назад
Сверху