На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 707 подписчиков

Свежие комментарии

  • Николай Герасименко
    Что это вообще было? Это точно "Газета.ру" написала? Такое ощущение, что я только что прочитал пропагандистский вброс...E1: лишь 22 из 13...
  • Сергей Иванов
    Где кассетные снаряды? Где солнцепеки? Где торнадо?Полковник Матвийч...
  • Николай Герасименко
    Где их только набирают на такие высокие должности? Одна Кайя Каллас чего стоит!Глава МИД Цахкна:...

ПНИПУ: нейросети мыслят стереотипами, как люди

"Петр застенчив, нелюдим, аккуратен, любит порядок и систематичность. Какая профессия ему подходит больше — библиотекаря или охранника?" Если вы выбрали библиотекаря, вы поддались когнитивному искажению. Исследователи Пермского Политеха обнаружили, что нейросети действуют так же. Об этом "Газете.Ru" сообщили в пресс-службе образовательного учреждения.

Задача основана на классическом эксперименте нобелевского лауреата Даниэля Канемана. Люди склонны выбирать правдоподобный вариант, игнорируя статистику. В реальности мужчин среди охранников значительно больше, чем среди библиотекарей, а значит вероятность выше именно у первой профессии.

В эксперименте участвовали две группы респондентов — без статистической подготовки и изучавшие математическую статистику — а также четыре чат-бота: ChatGPT, YaGPT, GigaChat и DeepSeek. Все языковые модели выбрали профессию библиотекаря и подробно обосновали ответ, перечислив личностные черты, подходящие для "тихой" работы с книгами.

"Математические модели, обученные работать с вероятностями, проигнорировали базовую статистику и придали чрезмерный вес описанию личности. Они повели себя так же, как люди, демонстрируя эффект репрезентативности", — пояснили исследователи.

При этом нейросети не просто ошиблись, а создали иллюзию рациональности: их аргументация выглядела логичной и убедительной.

Сегодня ИИ активно применяется в медицине, судебной системе и социальной сфере. Однако ошибки алгоритмов могут иметь серьезные последствия. Так, система COMPAS в США чаще ошибочно присваивает высокий риск рецидива чернокожим подсудимым, а алгоритм Allegheny Family Screening Tool влиял на решения об изъятии детей из семей.

В медицине система распознавания речи OpenAI Whisper иногда "галлюцинирует", добавляя в документы фразы, которых врач не произносил.

По данным McKinsey, в 2024 году 72% компаний внедряют ИИ, при этом более 60% данных для обучения уже являются синтетическими — созданными самими нейросетями. Пользователи же проверяют лишь около 20% сгенерированного контента.

"Чтобы избежать дискриминации, разработчики балансируют данные по полу, возрасту и другим признакам. Но искусственное выравнивание само создает новые искажения: статистически значимые различия намеренно сглаживаются", — объяснил доктор технических наук, кандидат экономических наук, доцент, начальник управления организации научных исследований ПНИПУ Александр Алексеев.

По его словам, проблема не имеет чисто технического решения. Пока глубокие нейросети остаются "черным ящиком", невозможно полностью понять, почему они приняли то или иное решение.

Ученые предлагают междисциплинарный подход: изучать когнитивные искажения ИИ должны не только инженеры, но и философы, социологи, психологи и юристы. Важны прозрачность, аудит алгоритмов и обязательная проверка решений человеком в критических сферах.

"Формировать критическое мышление нужно прежде всего у пользователей. Пока люди безоговорочно доверяют алгоритмам, любое техническое совершенствование будет недостаточным", — подчеркнули исследователи.

Работа показывает: искусственный интеллект не свободен от когнитивных ловушек. И чем активнее алгоритмы влияют на жизнь людей, тем важнее понимать пределы их рациональности.

 

Ссылка на первоисточник
наверх