Различные нейросети, в том числе большие языковые модели, к которым относится ChatGPT или GigaChat активно находят применение во многих сферах, в том числе в медицине. Однако врачи в своей массе негативно относятся к применению ИИ в качестве помощника. Как рассказал "Газете.Ru" руководитель группы исследований и разработки технологий машинного обучения в "Лаборатории Касперского" Владислав Тушканов, такое осторожное отношение оправдано из-за возможности возникновения у ИИ галлюцинаций.
Галлюцинация — это специальный термин (в данном случае применяемый к ИИ), который описывает ситуацию, когда большая языковая модель генерирует текст, в котором есть некоторая фактологическая информация, не соответствующая действительности.
"Вот, например, ситуация, которая произошла со мной. Я попросил у большой языковой модели порекомендовать мне музыку, и она сгенерировала несуществующее название альбома группы, которая мне нравилась. Я потратил 10 минут на поиски этого альбома в интернете до того, как смирился, что это была галлюцинация большой языковой модели", – рассказал Тушканов.
Однако если дело касается таких сфер, как кибербезопасность, медицина или юриспруденция, то цена подобных ошибок крайне высока. Поэтому, по словам специалиста, мы не можем на 100% доверять этим моделям.
"Проблема галлюцинаций, к сожалению, фундаментальная. От нее никуда не деться. Это свойство того, как эти системы устроены. Пока мы не найдем другой способ генерировать язык, не основывая его на авторегрессионных языковых моделях, риск галлюцинаций на 100% не исчезнет", – отметил специалист.
О сферах, в которые уже внедрены большие языковые модели, о профессиях, стоящих первыми в списке на исчезновение из-за ИИ и о главных изменениях, которые произойдут в жизни людей из-за ИИ – в интервью Тушканова "Газете.Ru".
Свежие комментарии