На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 637 подписчиков

Свежие комментарии

  • Роман Орманин
    Хэх не прошло и пять лет как заметили!!!Роскачество: моше...
  • Алла Головач
    Извоащенцы во власти...Во Франции мужчин...
  • vladimir vedenkin
    Опять какие-нибудь мрази провалят/отклонят/отложат/затянут/...В Думу внесли про...

WSJ: ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой

Бывший сотрудник Yahoo Стайн-Эрик Сольберг, страдавший от параноидальных мыслей, расправился с матерью, а затем покончил с собой после общения с чат-ботом ChatGPT. Об этом пишет газета The Wall Street Journal (WSJ).

По данным издания, это является первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ).

В публикации говорится, что чат-бот неоднократно подталкивал мужчину к укреплению недоверия к окружающим, в том числе к собственной матери. Сольберг даже дал ИИ имя "Бобби" и интересовался у него, будут ли они вместе после смерти, на что, как сообщается, получал утвердительный ответ.

Также газета привела примеры диалогов, которые повлияли на трагический исход. Например, когда мать сделала замечание сыну из-за того, что тот отключил общий принтер, ChatGPT предположил, что женщина могла защищать "средство слежки". В другой переписке Сольберг заявил чат-боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На что нейросеть ответила, что "верит" мужчине, и заявила о предательстве матери. Однажды Сольберг показал ИИ чек за блюдо китайской кухни. В нем ИИ нашел отсылки к матери Сольберга, а также символ, используемый для призыва демона. ИИ также предупреждал собеседника, что окружающие, в том числе курьер, доставляющий продукты, могут его отравить.

В WSJ отметили, что после случившегося представитель компании OpenAI, разработчика ChatGPT, выразил соболезнования и обратился в полицию. В официальном заявлении компания подчеркнула, что в ближайшее время выпустит обновление чат-бота, которое должно помочь пользователям с нестабильной психикой.

 

Ссылка на первоисточник
наверх