На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 638 подписчиков

Свежие комментарии

  • Николай Герасименко
    На фоне непрекращающейся агрессии и провокаций со стороны англосаксов, что там вообще делают наши послы!?Посла РФ вызвали ...
  • Наталья Эрнст
    Пусть теперь в аду вместе с чертями устраивает майдан.Журналист Кеворкя...
  • Владимир Степанян
    «Жираф большой - ему видней». Прокуратура на местах неоднократно «развалила» огромное количество дел, рассматривающи...ВККС рекомендовал...

Эксперт Kaspersky Тушканов: у нейросетей могут возникать галлюцинации

Различные нейросети, в том числе большие языковые модели, к которым относится ChatGPT или GigaChat активно находят применение во многих сферах, в том числе в медицине. Однако врачи в своей массе негативно относятся к применению ИИ в качестве помощника. Как рассказал "Газете.Ru" руководитель группы исследований и разработки технологий машинного обучения в "Лаборатории Касперского" Владислав Тушканов, такое осторожное отношение оправдано из-за возможности возникновения у ИИ галлюцинаций.

Галлюцинация — это специальный термин (в данном случае применяемый к ИИ), который описывает ситуацию, когда большая языковая модель генерирует текст, в котором есть некоторая фактологическая информация, не соответствующая действительности.

"Вот, например, ситуация, которая произошла со мной. Я попросил у большой языковой модели порекомендовать мне музыку, и она сгенерировала несуществующее название альбома группы, которая мне нравилась. Я потратил 10 минут на поиски этого альбома в интернете до того, как смирился, что это была галлюцинация большой языковой модели", – рассказал Тушканов.

Однако если дело касается таких сфер, как кибербезопасность, медицина или юриспруденция, то цена подобных ошибок крайне высока. Поэтому, по словам специалиста, мы не можем на 100% доверять этим моделям.

"Проблема галлюцинаций, к сожалению, фундаментальная. От нее никуда не деться. Это свойство того, как эти системы устроены. Пока мы не найдем другой способ генерировать язык, не основывая его на авторегрессионных языковых моделях, риск галлюцинаций на 100% не исчезнет", – отметил специалист.

О сферах, в которые уже внедрены большие языковые модели, о профессиях, стоящих первыми в списке на исчезновение из-за ИИ и о главных изменениях, которые произойдут в жизни людей из-за ИИ – в интервью Тушканова "Газете.Ru".

 

Ссылка на первоисточник
наверх