На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 696 подписчиков

Свежие комментарии

  • Григорий Николаев
    Конечно, с учетом технологий и оснащения эксиды выгодно выделяются. Пока лучшее, что есть в официальной продаже.ПНИПУ: у китайско...
  • Svetlana Kuzmina
    Всю элиту США и многих других стран Эпштейн держал на коротком поводке и вся эта элита была под его контролем, но... ...Дмитриев: Эпштейн...
  • Юрий Московский
    Как в этом змеином клубке всё и все переплетены ...Юристка Гордон пр...

IT-эксперт Зыков: создать дипфейк-видео мошенники могут лишь по одному фото

Мошенники могут создать убедительное дипфейк-видео, воспользовавшись для этого всего одной фотографией человека. Они могут поместить изображение на любой фон, с помощью освещения, коррекции и анимации лица создав максимально реалистичную картинку, предупредил в беседе с RT главный редактор IT-издания Runet Владимир Зыков.

Многие современные сервисы предоставляют возможность создать подвижное, естественное видео, на котором человек будет разговаривать, двигать руками, открывать рот и менять мимику в соответствии с речью. Сделать это можно за считанные минуты – с таким видео преступники получают целый спектр самых разных схем для обмана россиян, отметил специалист.

Часто аферисты подкрепляют такие видео внушительными подписями, что заставляет пользователя окончательно довериться изображению – так, они могут подписать аккаунт дипфейка "директор", "руководитель", чтобы получивший сообщение человек даже не успел задуматься о правдивости сообщения.

"Многие просто даже не помнят точный тембр и манеру речи начальника, - пояснил эксперт. - Если же нужен и голос — это тоже давно не проблема. Достаточно 20—30 секунд записи. Их можно взять из публичных выступлений, интервью или даже позвонить этому человеку и получить запись в ходе короткого телефонного разговора".

Обычно результат получается неидеальным – придирчивый взгляд специалиста распознает подделку, но для большинства ситуаций такого дипфейка достаточно, чтобы ввести в заблуждение обычных пользователей. Зыков подчеркнул, что единственным надежным способом проверки в такой ситуации является непосредственный звонок человеку или его помощнику по известному, настоящему номеру телефона.

"Мы живем в мире постправды. Голос и видео больше не являются доказательствами", — подчеркнул IT-эксперт.

Напомним, дипфейк — это синтетический медиафайл, сгенерированный с помощью нейросетей. Технология позволяет подменить лицо или голос одного человека лицом или голосом другого. В Минцифры РФ сообщили о создании рабочей группы по вопросу противодействия противоправному использованию технологий "Дипфейк" при ведомстве. Возглавит рабочую группу замминистра цифрового развития Александр Шойтов.

 

Ссылка на первоисточник
наверх