На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 727 подписчиков

Свежие комментарии

  • Leonid PlиGin
    А если стоимость бесплатных пакетов превышает 2.5 тысячи рублей, то к ответственности не привлекут? По статье 7.27 КО...Юрист Сбитнев: по...
  • Leonid PlиGin
    Дурдом! Какие 2.5 тысячи рублей, если пакеты бесплатные?Юрист Сбитнев: по...
  • Сергей Oблезов
    Не понимаю, как Путин держит этого врага рядом? Он больше соображает в фигурном катании или так задумано, чтобы кто-т...Песков назвал уда...

Специалист Курочкин: мошенники могут создать фейковые видео с помощью нейросети

Мошенники могут сгенерировать голос родственников при помощи искусственного интеллекта для обмана людей. Об этом Pravda.Ru рассказал эксперт по кибербезопасности Алексей Курочкин.

Кроме того, нейросети позволяют создавать фейковые видео и видеозвонки для подтверждения своих слов.

"То есть сначала звонят и голосом говорят: "Помоги деньгами, я в полиции", после этого происходит видеозвонок тех же мошенников с поддельного номера, злоумышленник говорит: "Полицейские дали мне позвонить", и на фоне полиции вроде бы ее внук или сын разговаривает и то же самое говорит", — рассказал эксперт.

По словам Курочкина, пожилые люди часто верят этому и переводят злоумышленникам деньги.

Накануне "Газете.Ru" сообщили, что исследователи Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН) совместно с исследователями РАНХиГС обучили нейросеть находить соответствия между способностью человека противостоять кибермошенникам и его аватаркой в социальных сетях. Пока нейросеть распознает немного признаков на фотографии пользователя: положение головы, глаз, выражение лица и некоторые другие. Однако в будущем ученые хотят добавить больше признаков.

 

Ссылка на первоисточник
наверх