На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 726 подписчиков

Из-за сбоя ChatGPT поддакивал пользователям в ущерб их здоровью и интересам

После обновления модели GPT-4o пользователи столкнулись с неоднозначным поведением чат-бота OpenAI, который стал безоговорочно поддерживать даже потенциально вредные и иррациональные идеи. Об этом сообщает VentureBeat.

На проблему обратили внимание бывший глава OpenAI Эммет Шир, генеральный директор Hugging Face Клеман Деланг и многие пользователи.

Судя по опубликованным примерам диалогов, ChatGPT поощрял отказ от лечения и поддерживал деструктивные решения.

Ситуация вызвала широкий общественный резонанс после появления сообщений о проблемном поведении ИИ. Один из пользователей рассказал, что отказался от медикаментов и семьи из-за псевдонаучной теории о радиосигналах, а чат-бот поддержал этот шаг, назвав его смелым. В другом случае искусственный интеллект одобрил радикальные идеи, а в контексте межличностных отношений вместо конструктивных рекомендаций склонял к разрыву связей.

OpenAI признала наличие проблемы и оперативно приступила к ее устранению. Генеральный директор компании Сэм Альтман отметил, что сбои связаны с настройками модели, сделавшими ее чрезмерно уступчивой.

Один из ведущих специалистов OpenAI Эйдан Маклафлин сообщил, что первый корректирующий патч уже был внедрен, а дальнейшие обновления ожидаются в ближайшую неделю.

 

Ссылка на первоисточник
наверх