На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 610 подписчиков

Свежие комментарии

  • Николай Герасименко
    Может я чего-то не понимаю, но если повысить тарифы или таможенные пошлины на ввозимый товар, то его стоимость для по...Трамп: США продол...
  • Людмила Харькова
    Это он так намекает что еще надо побольше запустить черномазиков в страну? А он не боится что его с дерьмом народ съе...Мишустин: граждан...
  • Evgeni Velesik
    Ну-ну, Миротворец! Чем сам то будешь обороняться?Трамп одобрил отп...

IT-эксперт рассказал, чем опасны дипфейки

При большом желании современные вычислительные мощности способны создать видеоматериал, который даже на уровне экспертизы будет практически невозможно отличить от настоящего. Об этом сообщил IT-специалист Илья Костунов. Он рассказал, как устроены дипфейки с технической точки зрения и чем они особенно опасны.

"Все уже привыкли к тому, что компьютер учится распознавать изображения, но он точно так же умеет их генерировать. Когда совмещают две нейросети - генератор и дискриминатор, то появляется возможность создавать изображения очень похожие на настоящие. Технологически все очень просто. Генератор создает контент, а дискриминатор вместо пользователя огромное количество раз проверяет его на достоверность. Компьютер сам уточняет сходство фальшивого видео так, что потом даже человек не мог распознать подделку", - отметил эксперт. По его словам, эта полезная технология используется в искусстве и кино, но в том числе она используется для генерации дипфейков - фальшивых видео. "С помощью этой технологии можно как создать новое видео, но это довольно сложно, так и заменить отдельные элементы видео, что намного проще. Наверное, отличить сделанное на любительском уровне видео при внимательном рассмотрении можно. А профессионально подготовленные дипфейки отличить практически невозможно", - заявил Костунов. Он рассказал, что технология широко используется для коррекции порнографических материалов. Она заменяет профессиональных актеров этого жанра, например, на известных личностей. "Также эта технология может использоваться в политических целях, так как можно подменить все, что угодно - голос, изображение, место.
Причем, чем более публичная личность, тем более убедительной будет эта аудио или видео-подделка. Так как большое количество фото и видеоматериалов будет в публичном доступе. Таким образом фактически нейтральная технология может быть использована для манипуляции общественным мнением и обмана отдельных личностей. Причем это может быть использовано как в бизнесе, так и в политике. А учитывая, что технология сейчас позволяет генерировать фальшивые видео даже на домашнем компьютере, то возможно мы столкнемся и в бытовом общении", - заключил эксперт.

 

Ссылка на первоисточник
наверх