На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 716 подписчиков

Свежие комментарии

  • N N
    А зачем  звездам похвалиться миллионами, квартирами на Бали, в Дубаи, в ЛондОне? Не надо! Вот и зав и сти не будетПсихолог Булгаков...
  • Дмитрий Варфоломеев
    похоже решили что всем можно так поступать с Российским флотом, раз ничем не отвечают.IZ: шведские влас...
  • Андрей
    Не надорвался бы этот маньяк-убийцаТрамп: США на сле...

IT-эксперт рассказал, чем опасны дипфейки

При большом желании современные вычислительные мощности способны создать видеоматериал, который даже на уровне экспертизы будет практически невозможно отличить от настоящего. Об этом сообщил IT-специалист Илья Костунов. Он рассказал, как устроены дипфейки с технической точки зрения и чем они особенно опасны.

"Все уже привыкли к тому, что компьютер учится распознавать изображения, но он точно так же умеет их генерировать. Когда совмещают две нейросети - генератор и дискриминатор, то появляется возможность создавать изображения очень похожие на настоящие. Технологически все очень просто. Генератор создает контент, а дискриминатор вместо пользователя огромное количество раз проверяет его на достоверность. Компьютер сам уточняет сходство фальшивого видео так, что потом даже человек не мог распознать подделку", - отметил эксперт. По его словам, эта полезная технология используется в искусстве и кино, но в том числе она используется для генерации дипфейков - фальшивых видео. "С помощью этой технологии можно как создать новое видео, но это довольно сложно, так и заменить отдельные элементы видео, что намного проще. Наверное, отличить сделанное на любительском уровне видео при внимательном рассмотрении можно. А профессионально подготовленные дипфейки отличить практически невозможно", - заявил Костунов. Он рассказал, что технология широко используется для коррекции порнографических материалов. Она заменяет профессиональных актеров этого жанра, например, на известных личностей. "Также эта технология может использоваться в политических целях, так как можно подменить все, что угодно - голос, изображение, место.
Причем, чем более публичная личность, тем более убедительной будет эта аудио или видео-подделка. Так как большое количество фото и видеоматериалов будет в публичном доступе. Таким образом фактически нейтральная технология может быть использована для манипуляции общественным мнением и обмана отдельных личностей. Причем это может быть использовано как в бизнесе, так и в политике. А учитывая, что технология сейчас позволяет генерировать фальшивые видео даже на домашнем компьютере, то возможно мы столкнемся и в бытовом общении", - заключил эксперт.

 

Ссылка на первоисточник
наверх