Каждая третья мошенническая атака в 2025 году будет совершаться с применением технологий на основе искусственного интеллекта (ИИ), что выльется в миллионы подобных инцидентов в месяц. Об этом "Газете.Ru" рассказала заместитель директора департамента развития продуктов и директор продуктового портфеля компании VisionLabs Татьяна Дешкина.
Дешкина перечислила три основных сценария использования ИИ, которых будут придерживаться мошенники. Возглавила этот условный топ схема с использованием дипфейков: мошенники начнут массово подделывать изображения, видео и голоса друзей, родственников, коллег, знакомых и известных личностей с целью кражи денег или манипуляции общественным мнением.
"Новые сервисы на основе генеративного искусственного интеллекта позволяют создавать дипфейки в режиме реального времени, что значительно усложняет процесс определения такого фейка", — сказала эксперт.
Другой тенденцией станет обман пользователей дейтинговых сервисов с использованием профилей, которые оформлены фотографиями несуществующих людей, и которыми управляют чат-боты. По словам Дешкиной, при помощи ИИ злоумышленники могут одновременно общаться с десятками тысяч потенциальных жертв.
"После возвращения моды на подарки в соцсетях и мессенджерах злоумышленники начали активнее "стучаться" к пользователям напрямую, минуя приложения для знакомств, а также просить подарки, а не помочь деньгами", — добавила она.
Наконец, злоумышленники станут активнее использовать ИИ для создания выборок потенциально уязвимых жертв. При помощи нейросетей можно искать профили пользователей социальных сетей, которые находились в уязвимом положении и сделали соответствующие посты.
"Например, они хотят переехать в другую страну, недавно лишились близкого человека, остро нуждаются в деньгах", — объяснила Дешкина.
Свежие комментарии