На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 724 подписчика

Свежие комментарии

  • Вадим Лебедев
    Вот бы... переехать вам всем - туда.  А ещё лучше бы на Марс! - Как раз для вас планетка и воюйте там себе, на здоров...Трамп: американцы...
  • Вадим Лебедев
    У Дони, какая то однообразная схема... день угроз, потом день хамства.  Его где... воспитывали то?FT: Трамп пригроз...
  • Зоя
    Глупость и тупость различаются степенью осознанности и возможностью исправления. Глупость — это недостаток ума или не...Посол Долгов назв...

Американец заработал психоз из-за совета ChatGPT заменить соль на бромид натрия

Врачи Медицинской школы Вашингтонского университета сообщили о редком случае отравления бромидом натрия, приведшего к развитию острого психоза у 60-летнего мужчины. Об этом пишет Gizmodo.

По данным специалистов, пациент в течение трех месяцев придерживался диеты, которую самостоятельно составил с использованием рекомендаций ChatGPT.

Мужчина, имеющий базовое образование в области нутрициологии, решил исключить хлорид натрия из рациона и обратился к ИИ за советом. Нейросеть предложила несколько вариантов, включая бромид натрия, не указав на его токсичность при употреблении в пищу.

Вскоре у пациента появились паранойя, галлюцинации и дезориентация, а затем развился психотический эпизод. Мужчина был госпитализирован, прошел курс антипсихотической терапии и через три недели выписан. На повторном осмотре спустя две недели врачи подтвердили стабильное состояние.

Медики отметили, что рекомендации ИИ носили общий характер и не были адаптированы под медицинский контекст, что создало угрозу здоровью мужчины.

 

Ссылка на первоисточник
наверх