Генеративный ИИ стремительно вошел в повседневную жизнь, особенно среди молодежи и студентов. По данным исследований, около 82% людей в возрасте от 18 до 24 лет знают о нейросетях с текстовыми функциями. Более того, многие активно используют их для написания учебных работ, решения задач и других академических целей.
Об угрозах использования ИИ студентами в написании курсовых работ "Газете.Ru" рассказала руководитель ИТ-подразделения Агентства "Полилог", автор Telegram-канала ГОС ИТ Богатырёва — Людмила Богатырёва.Одновременно с этим образовательные учреждения все больше обеспокоены тем, что ИИ становится неотъемлемым инструментом в учебном процессе. Так, сегодня многие университеты внедряют технологии для выявления ИИ-генерации текста (ИИ-детекторы) и разрабатывают правила допустимого использования ИИ. Например, в некоторых вузах разрешается применять нейросети только для составления выводов или аннотаций в курсовых работах.
"Однако на практике такие меры оказываются малоэффективными: студенты находят способы обхода ограничений. Один из них — использование "хьюменайзеров", которые переписывают текст, созданный ИИ. В результате, ИИ-детекторы не могут отличить его от текста, написанного человеком. Поэтому бороться с использованием ИИ в образовательной среде просто бесполезно. Вместо этого важно учить студентов критически мыслить, проверять факты и осознавать ограничения нейросетей", — объяснила она.
Так, одним из главных из ограничений являются так называемые галлюцинации — ситуации, когда модель генерирует неправдивую или полностью вымышленную информацию. Это может происходить по разным причинам: ограниченность обучающих данных, некорректная интерпретация пользовательского запроса и проч. В результате нейросеть может придумывать несуществующие концепции, теории и даже авторов научных работ.
"Так, даже самая продвинутая на сегодняшний день модель ChatGPT-4.5 сталкивается с галлюцинациями в 37% случаев. И, на минуту, это лучший показатель среди всех версий модели. Тем не менее, около 31% студентов доверяют ИИ поиск источников для курсовых и лабораторных работ, согласно опросу НИУ ВШЭ", — объяснила она.
Галлюцинации ИИ в академической среде несут серьезные риски. Если преподаватель заметит недостоверные данные в работе, это может привести к значительному снижению оценки.
"Но еще опаснее, если ошибка останется незамеченной, а работа будет опубликована в интернете — тогда другие ИИ-модели могут использовать ее в обучении, распространяя неверную информацию дальше. В результате это ведет к оскудению академического поля, когда ложные данные становятся частью научного знания", — резюмировала эксперт.
Свежие комментарии