Искусственному интеллекту не стоит присылать свои фотографии, портфолио, записи, голос, потому что эти данные могут использовать мошенники. Об этом в интервью радио Sputnik рассказал эксперт в области информационной безопасности, профессор кафедры "Безопасность в цифровом мире" МГТУ им. Баумана Виталий Вехов.
По его словам, нейросети способны смоделировать аудио и видео обращения для мошеннических действий. Он предупредил, что аферисты уже пользуются возможностями ИИ в даркнете.
"У нас же есть разные уровни искусственного интеллекта, и в даркнете до сих пор на, как мы их называем, вражеских сайтах, продаются и сдаются в аренду системы искусственного интеллекта, заточенные под совершение конкретных видов преступлений, связанных с наркотиками, торговлей органами, людьми, оружием, в том числе для совершения мошеннических действий", — заключил Вехов.
Доцент кафедры "Информационные технологии и автоматизированные системы" ПНИПУ, кандидат технических наук Даниил Курушин до этого рассказал "Газете.Ru", что ChatGPT сохраняет данные диалогов и присваивает каждому сеансу уникальный идентификатор, что позволяет разработчикам совершенствовать алгоритмы и исправлять ошибки. Но всегда существует риск, что информация может быть использована третьими лицами — от мошенников до спецслужб.
Свежие комментарии