На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 655 подписчиков

Свежие комментарии

  • Ильдус Зубаиров
    Да им и 2 миллионов будет мало, всё равно всех в "мясных штурмах" положат.The Telegraph: ук...
  • Владимир Петров
    Предложение не лишено смысла. Лавина информации. Знать и уметь надо очень много, если не готовиться к роли тыкателя п...Останина предложи...
  • Александр Семкин
    Давно надо ЭТИХ МРАЗЕЙ привлечь к ответственности. Живут за счёт нас, русских, пользуются всем, п в армию служить нет...Baza: силовики пр...

Роскачество: мошенники массово подделывают голоса и изображения людей

Мошенники в последнее время начали активно использовать технологии искусственного интеллекта для создания дипфейков и подделки голосов. Они звонят россиянам от лица знакомых и родственников, причем им достаточно короткого образца голоса, чтобы сгенерировать убедительную голосовую копию, сообщил RT руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко.

Отметим, что за последние пять лет доля киберпреступлений в России достигла 40% от общего числа преступлений – об этом газета "Известия" сообщает со ссылкой на генпрокурора России Александра Гуцана. По его словам, в прошлом году их число превысило 765 тыс., ущерб исчисляется сотнями миллиардов рублей, четверть из них — средства, похищенные у граждан.

Подделка голоса и изображения знакомого жертве человека – это одна из наиболее частых схем обмана, которая популярна у аферистов тем, что сразу усыпляет бдительность человека, отметил Кузьменко.

"Услышав в трубке знакомый тембр и манеру речи, люди теряют бдительность и без лишних сомнений переводят деньги на указанные мошенниками реквизиты, осознавая обман лишь после", — предупредил специалист.

Часто, по его словам, аферисты применяют видеозвонки с применением дипфейков, которым граждане доверяют еще больше – видя перед собой живое изображение человека, они не сомневаются в подлинности звонка. Такой эффект присутствия наиболее опасен, поэтому важно в любом случае оставаться бдительным, при малейших подозрениях класть трубку и перезванивать на номер человека напрямую, заключил специалист.

До этого в МВД рассказали, что дипфейки в последнее время все чаще используются не только для розыгрышей, но и в мошеннических схемах, а также информационных операциях.

В ведомстве отметили, что при просмотре подозрительного ролика важно в первую очередь проверять источник, искать артефакты на изображении, сопоставлять сказанное в кадре с контекстом, а также применять обратный поиск изображений или специализированные сервисы наподобие Sensity AI, Reality Defender и Deepware. Также россиянам напомнили, что, хотя такие инструменты помогают анализировать медиаконтент, безошибочной защиты они не обеспечивают — окончательная оценка всегда остается за человеком.

 

Ссылка на первоисточник
наверх