На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 568 подписчиков

Свежие комментарии

  • Елена Каратеева
    Дети - ну что с них спросишь? А спрашивать надо с родителей, которые не научили своих детей чтить память прошлого и с...В Хабаровске дети...
  • Виталий Мячин
    Какой смелый смертник! Кокаино!!!Зеленский заявил,...
  • Любовь Ткаченко
    Трамп сообщил, чт...

Microsoft: ИИ никогда не станет полностью безопасным

Специалисты корпорации Microsoft предупреждают о серьезных рисках, связанных с использованием искусственного интеллекта (ИИ). Об этом говорится в новом исследовании корпорации, опубликованном на сервере препринтов arXiv.

В исследовании Microsoft проанализировала более 100 инструментов генеративного ИИ и выявила неизбежные угрозы безопасности, связанные с их применением.

В компании утверждают, что ИИ "никогда не будет полностью безопасным", подчеркивая необходимость жесткого контроля над процессом обучения языковых моделей (LLM) и активной работы по предотвращению ошибок.

Корпорация Microsoft, сама являющаяся разработчиком и интегратором множества ИИ-продуктов, включая Bing Chat, GitHub Copilot, Power BI и Azure AI, осознает высокий уровень ответственности, связанный с развитием этой технологии. Именно поэтому компания активно вкладывает ресурсы в исследования безопасности ИИ.

Большие языковые модели (LLM), по мнению исследователей, не только усиливают существующие риски, но и создают новые. Обучение LLM на неверных или конфиденциальных данных приводит к распространению этой информации моделями среди пользователей. Кроме того, потенциальный вред от ИИ оценивается как трудно прогнозируемый.

Для повышения безопасности специалисты Microsoft рекомендуют строгий контроль на каждом этапе обучения LLM. Они подчеркивают решающую роль человеческого фактора, а также необходимость привлечения специалистов с глубокими знаниями предметной области, высокой культурной компетентностью и развитым эмоциональным интеллектом для работы с искусственным интеллектом.

 

Ссылка на первоисточник
наверх