На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 543 подписчика

Свежие комментарии

  • Валерий Путря
    всё проходит.....пройдёт и эта диарея...Guardian: в США п...
  • Svetlana Kuzmina
    Газ Германии после конфликта на Украине, я думаю, не понадобится, поскольку промышленности не останется, да и Россия ...Премьер Тюрингии:...
  • Svetlana Kuzmina
    Напрасно Трамп ввязался в экономическую войну с Китаем, для США это может обернуться катастрофой.Трамп: пошлины уд...

Эксперт Богатырёва: бороться с использованием ИИ в образовании просто бесполезно

Генеративный ИИ стремительно вошел в повседневную жизнь, особенно среди молодежи и студентов. По данным исследований, около 82% людей в возрасте от 18 до 24 лет знают о нейросетях с текстовыми функциями. Более того, многие активно используют их для написания учебных работ, решения задач и других академических целей.

Об угрозах использования ИИ студентами в написании курсовых работ "Газете.Ru" рассказала руководитель ИТ-подразделения Агентства "Полилог", автор Telegram-канала ГОС ИТ Богатырёва — Людмила Богатырёва.

Одновременно с этим образовательные учреждения все больше обеспокоены тем, что ИИ становится неотъемлемым инструментом в учебном процессе. Так, сегодня многие университеты внедряют технологии для выявления ИИ-генерации текста (ИИ-детекторы) и разрабатывают правила допустимого использования ИИ. Например, в некоторых вузах разрешается применять нейросети только для составления выводов или аннотаций в курсовых работах.

"Однако на практике такие меры оказываются малоэффективными: студенты находят способы обхода ограничений. Один из них — использование "хьюменайзеров", которые переписывают текст, созданный ИИ. В результате, ИИ-детекторы не могут отличить его от текста, написанного человеком. Поэтому бороться с использованием ИИ в образовательной среде просто бесполезно. Вместо этого важно учить студентов критически мыслить, проверять факты и осознавать ограничения нейросетей", — объяснила она.

Так, одним из главных из ограничений являются так называемые галлюцинации — ситуации, когда модель генерирует неправдивую или полностью вымышленную информацию. Это может происходить по разным причинам: ограниченность обучающих данных, некорректная интерпретация пользовательского запроса и проч. В результате нейросеть может придумывать несуществующие концепции, теории и даже авторов научных работ.

"Так, даже самая продвинутая на сегодняшний день модель ChatGPT-4.5 сталкивается с галлюцинациями в 37% случаев. И, на минуту, это лучший показатель среди всех версий модели. Тем не менее, около 31% студентов доверяют ИИ поиск источников для курсовых и лабораторных работ, согласно опросу НИУ ВШЭ", — объяснила она.

Галлюцинации ИИ в академической среде несут серьезные риски. Если преподаватель заметит недостоверные данные в работе, это может привести к значительному снижению оценки.

"Но еще опаснее, если ошибка останется незамеченной, а работа будет опубликована в интернете — тогда другие ИИ-модели могут использовать ее в обучении, распространяя неверную информацию дальше. В результате это ведет к оскудению академического поля, когда ложные данные становятся частью научного знания", — резюмировала эксперт.

 

Ссылка на первоисточник
наверх