Мошенники в последнее время активно используют дипфейки для выманивания средств – поддельные видеоролики и аудиозаписи с изображением и голосом человека. Чтобы не стать жертвой такого обмана, нужно стараться не публиковать свои данные на открытых ресурсах, а также очень критично оценивать всю поступающую информацию, рассказал RT преподаватель кафедры КБ-1 "Защита информации" РТУ МИРЭА Василий Шутов.
Используя разные современные программы, злоумышленники с помощью искусственного интеллекта генерируют контент с образом и голосом человека, после чего рассылают от его лица сообщения. В них человек якобы просит о финансовой помощи, причем близкие редко могут отличить подделку от реального сообщения.
"Многие люди становятся жертвами обмана и переводят крупные суммы мошенникам", — констатировал специалист, добавив, что риск снижается, если в открытом доступе нет личных данных.
Также Шутов призвал критично оценивать поступающую информацию, отмечать любые искажения, несоответствия и лишние пиксели. В том числе нужно внимательно следить за частотой моргания, совпадением голоса и открывающегося рта, обращать внимание на окружающие человека предметы и тени. Насторожиться следует, если у человека на видео тусклые глаза и зубы, кожа неестественного цвета, а детали и контуры прорисованы плохо.
Важно не переходить по присылаемым (даже от знакомых) ссылкам, проверять информацию, добавил киберэксперт. Он также порекомендовал защитить данные от вредоносных программ-шифровальщиков с помощью резервных копий, сложных дополнительных паролей – важно, чтобы они были уникальные для каждого отдельного ресурса.
Напомним, этой осенью в Госдуму планируют внести законопроект о дипфейках, над которым работают "лучшие юридические умы". Также МВД России разрабатывает поправки в Уголовный кодекс РФ, которыми предлагается признать использование искусственного интеллекта при совершении преступлений отягчающим обстоятельством.
Свежие комментарии