На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 724 подписчика

Свежие комментарии

  • Вадим Лебедев
    Вот бы... переехать вам всем - туда.  А ещё лучше бы на Марс! - Как раз для вас планетка и воюйте там себе, на здоров...Трамп: американцы...
  • Вадим Лебедев
    У Дони, какая то однообразная схема... день угроз, потом день хамства.  Его где... воспитывали то?FT: Трамп пригроз...
  • Зоя
    Глупость и тупость различаются степенью осознанности и возможностью исправления. Глупость — это недостаток ума или не...Посол Долгов назв...

РБК: в России разработали проект о запрете ИИ с угрожающим уровнем риска

В России экспертная группа разработала проект законодательного регулирования искусственного интеллекта (ИИ). Об этом пишет РБК.

Новый законопроект "О регулировании систем искусственного интеллекта в России" предлагает ввести понятия искусственного интеллекта, технологий и систем ИИ, требования к маркировке систем ИИ, а также классифицировать системы ИИ по уровню риска - неприемлемый, высокий, ограниченный и минимальный.

Документ предлагает запретить в стране разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска.

Кроме того, авторы инициативы предложили установить ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем ИИ.

Для определения принадлежности прав на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на "существенный творческий вклад человека", отметило издание.

Если законопроект примут без изменений, то операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после вступления документа в силу.

В январе специалисты корпорации Microsoft предупредили о серьезных рисках, связанных с использованием искусственного интеллекта. Microsoft проанализировала более 100 инструментов генеративного ИИ и выявила неизбежные угрозы безопасности, связанные с их применением. В компании утверждают, что ИИ "никогда не будет полностью безопасным", подчеркивая необходимость жесткого контроля над процессом обучения языковых моделей (LLM) и активной работы по предотвращению ошибок.

 

Ссылка на первоисточник
наверх