На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 279 подписчиков

Свежие комментарии

  • Eduard
    Бывает и такое? У власти САМОЗВАНЕЦ!Верховный суд Укр...
  • Eduard
    Как и со сбитым Украиной боингом,нк видят.Боинг на 200 человек,ну не видят !МИД ФРГ: Германия...
  • Eduard
    Как с Америкой связались так и погрязли в уголовщине!МИД ФРГ: Германия...

IT-эксперт рассказал, чем опасны дипфейки

При большом желании современные вычислительные мощности способны создать видеоматериал, который даже на уровне экспертизы будет практически невозможно отличить от настоящего. Об этом сообщил IT-специалист Илья Костунов. Он рассказал, как устроены дипфейки с технической точки зрения и чем они особенно опасны. "Все уже привыкли к тому, что компьютер учится распознавать изображения, но он точно так же умеет их генерировать. Когда совмещают две нейросети - генератор и дискриминатор, то появляется возможность создавать изображения очень похожие на настоящие. Технологически все очень просто. Генератор создает контент, а дискриминатор вместо пользователя огромное количество раз проверяет его на достоверность. Компьютер сам уточняет сходство фальшивого видео так, что потом даже человек не мог распознать подделку", - отметил эксперт. По его словам, эта полезная технология используется в искусстве и кино, но в том числе она используется для генерации дипфейков - фальшивых видео. "С помощью этой технологии можно как создать новое видео, но это довольно сложно, так и заменить отдельные элементы видео, что намного проще. Наверное, отличить сделанное на любительском уровне видео при внимательном рассмотрении можно. А профессионально подготовленные дипфейки отличить практически невозможно", - заявил Костунов. Он рассказал, что технология широко используется для коррекции порнографических материалов. Она заменяет профессиональных актеров этого жанра, например, на известных личностей. "Также эта технология может использоваться в политических целях, так как можно подменить все, что угодно - голос, изображение, место. Причем, чем более публичная личность, тем более убедительной будет эта аудио или видео-подделка. Так как большое количество фото и видеоматериалов будет в публичном доступе. Таким образом фактически нейтральная технология может быть использована для манипуляции общественным мнением и обмана отдельных личностей. Причем это может быть использовано как в бизнесе, так и в политике. А учитывая, что технология сейчас позволяет генерировать фальшивые видео даже на домашнем компьютере, то возможно мы столкнемся и в бытовом общении", - заключил эксперт.

 

Ссылка на первоисточник

Картина дня

наверх