На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 550 подписчиков

Свежие комментарии

  • Зоя Гольдштаб
    Ну и наглец!!!! А сколько в так называемом " шоу-биз " таких нахалов без ЧЕСТИ И СОВЕСТИ!!!!!Актер Дмитрий Наг...
  • Евгений Бут
    Интересная логика у зелика, ему могут помогать все, а России никто!Аналитик Сун: Зел...
  • Федор Родников
    Кастрировать мразей тупым скальпелем без наркоза."78.ru": в Петерб...

РБК: в России разработали проект о запрете ИИ с угрожающим уровнем риска

В России экспертная группа разработала проект законодательного регулирования искусственного интеллекта (ИИ). Об этом пишет РБК.

Новый законопроект "О регулировании систем искусственного интеллекта в России" предлагает ввести понятия искусственного интеллекта, технологий и систем ИИ, требования к маркировке систем ИИ, а также классифицировать системы ИИ по уровню риска - неприемлемый, высокий, ограниченный и минимальный.

Документ предлагает запретить в стране разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска.

Кроме того, авторы инициативы предложили установить ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем ИИ.

Для определения принадлежности прав на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на "существенный творческий вклад человека", отметило издание.

Если законопроект примут без изменений, то операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после вступления документа в силу.

В январе специалисты корпорации Microsoft предупредили о серьезных рисках, связанных с использованием искусственного интеллекта. Microsoft проанализировала более 100 инструментов генеративного ИИ и выявила неизбежные угрозы безопасности, связанные с их применением. В компании утверждают, что ИИ "никогда не будет полностью безопасным", подчеркивая необходимость жесткого контроля над процессом обучения языковых моделей (LLM) и активной работы по предотвращению ошибок.

 

Ссылка на первоисточник
наверх