На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 398 подписчиков

Свежие комментарии

  • Наталья Середа
    Певица? Наша эстрада пала ниже плинтуса.Певица Бузова зая...
  • Evgenija Palette
    Правильно. Нечего им делать там, где живут белые люди. Не работают, налоги не платят. А пользуются и бесплатной медиц...Вассерман о вторж...
  • Андрей Зарубкин
    Широко известная в узких тусовочных кругах решила напомнить о своем существовании.Актриса Екатерина...

Эксперт Kaspersky Тушканов: у нейросетей могут возникать галлюцинации

Различные нейросети, в том числе большие языковые модели, к которым относится ChatGPT или GigaChat активно находят применение во многих сферах, в том числе в медицине. Однако врачи в своей массе негативно относятся к применению ИИ в качестве помощника. Как рассказал "Газете.Ru" руководитель группы исследований и разработки технологий машинного обучения в "Лаборатории Касперского" Владислав Тушканов, такое осторожное отношение оправдано из-за возможности возникновения у ИИ галлюцинаций.

Галлюцинация — это специальный термин (в данном случае применяемый к ИИ), который описывает ситуацию, когда большая языковая модель генерирует текст, в котором есть некоторая фактологическая информация, не соответствующая действительности.

"Вот, например, ситуация, которая произошла со мной. Я попросил у большой языковой модели порекомендовать мне музыку, и она сгенерировала несуществующее название альбома группы, которая мне нравилась. Я потратил 10 минут на поиски этого альбома в интернете до того, как смирился, что это была галлюцинация большой языковой модели", – рассказал Тушканов.

Однако если дело касается таких сфер, как кибербезопасность, медицина или юриспруденция, то цена подобных ошибок крайне высока. Поэтому, по словам специалиста, мы не можем на 100% доверять этим моделям.

"Проблема галлюцинаций, к сожалению, фундаментальная. От нее никуда не деться. Это свойство того, как эти системы устроены. Пока мы не найдем другой способ генерировать язык, не основывая его на авторегрессионных языковых моделях, риск галлюцинаций на 100% не исчезнет", – отметил специалист.

О сферах, в которые уже внедрены большие языковые модели, о профессиях, стоящих первыми в списке на исчезновение из-за ИИ и о главных изменениях, которые произойдут в жизни людей из-за ИИ – в интервью Тушканова "Газете.Ru".

 

Ссылка на первоисточник

Картина дня

наверх