Использование подмены голоса или изображений (дипфейков) в преступлениях может стать отягчающим обстоятельством. Об этом заявил глава комитета Госдумы по информполитике Сергей Боярский на конференции "Цифровая индустрия промышленной России", пишет ТАСС.
"Прорабатывается вопрос о признании отягчающим обстоятельством использования подмены голоса или изображения при совершении преступлений", - сказал он.
В мае заместитель председателя комитета Госдумы по физической культуре и спорту Сергей Бурлаков посоветовал каждой российской семье придумать внутреннее кодовое слово, которое поможет распознать мошеннические схемы с использованием технологий дипфейка.
Скоро появятся звонки с фальшивыми голосами родственников, предупредил Бурлаков. Он отметил, что при любых сомнениях достаточно попросить человека на связи назвать заранее установленный пароль.
До этого специалисты по ИИ пришли к выводу, что каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой. По информации экспертов, аферисты смогут в режиме реального времени имитировать разговор с "другом, просящим деньги" или же "коллегой, срочно требующим перевести средства". Причем в 2025 году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались, из-за чего современные дипфейки становятся все сложнее распознать.
Свежие комментарии