На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 566 подписчиков

Свежие комментарии

  • Андрей Зарубкин
    Война закончится после подписания Украиной акта о полной и безоговорочной капитуляции Украины. Перемирие после Мински...Уиткофф: США долж...
  • ШКИПЕР
    Минобороны РФ: ВСУ 5026 раз нарушили перемирие ко Дню Победы. С кем договариваться о каком то перемирии , с зелёным н...Стубб: перемирие ...
  • ВЛАДИМИР ЯБРОВ
    Выйти с гейропы и делов то!!!Орбан: ЕС хочет о...

Специалист Курочкин: мошенники могут создать фейковые видео с помощью нейросети

Мошенники могут сгенерировать голос родственников при помощи искусственного интеллекта для обмана людей. Об этом Pravda.Ru рассказал эксперт по кибербезопасности Алексей Курочкин.

Кроме того, нейросети позволяют создавать фейковые видео и видеозвонки для подтверждения своих слов.

"То есть сначала звонят и голосом говорят: "Помоги деньгами, я в полиции", после этого происходит видеозвонок тех же мошенников с поддельного номера, злоумышленник говорит: "Полицейские дали мне позвонить", и на фоне полиции вроде бы ее внук или сын разговаривает и то же самое говорит", — рассказал эксперт.

По словам Курочкина, пожилые люди часто верят этому и переводят злоумышленникам деньги.

Накануне "Газете.Ru" сообщили, что исследователи Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН) совместно с исследователями РАНХиГС обучили нейросеть находить соответствия между способностью человека противостоять кибермошенникам и его аватаркой в социальных сетях. Пока нейросеть распознает немного признаков на фотографии пользователя: положение головы, глаз, выражение лица и некоторые другие. Однако в будущем ученые хотят добавить больше признаков.

 

Ссылка на первоисточник
наверх