На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 728 подписчиков

Свежие комментарии

  • Leonid PlиGin
    С Путиным-то можно вести диалог, а вот с Трампом - уже нет. Президент Казахстана Токаев уже так испачкался об Трампа,...Трамп заявил, что...
  • Александр Ширай
    Будет подарок для ТЦК))Зеленский считает...
  • Razziel
    Хохлы=иже черкасы, а ещё в прошлом хозары,(Обратите внимание на то что, они!  Не Православные! Жидовня! Убившая Бога!...Постпред Мельник:...

"Известия": каждый второй россиянин столкнется с дипфейк-атакой к концу года

Каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой. Об этом пишут "Известия" со ссылкой на специалистов по искусственному интеллекту.

Дипфейками называют фотографии или видеозаписи, на которых голос или внешность человека "подделаны" с помощью нейросети. По информации экспертов, аферисты смогут в режиме реального времени имитировать разговор с "другом, просящим деньги" или же "коллегой, срочно требующим перевести средства".

Специалисты обратили внимание на то, что в 2025 году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались. В связи с этим современные дипфейки становятся все сложнее распознать.

В конце апреля МВД России сообщило, что признаками дипфейка являются неестественная интонация речи, редкое моргание и несоответствие движений губ речи. Если заметен "роботизированный" тон речи, рекомендуется проверить собеседника другим способом, чтобы убедиться в его подлинности.

До этого исполнительный директор MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков может вырасти до десятков миллионов в течение ближайших трех лет из-за доступности технологии. По его словам, за это время любой сможет клонировать голос или накладывать чужое лицо на фото и видео.

 

Ссылка на первоисточник
наверх