На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 550 подписчиков

Свежие комментарии

  • Владимир Петров
    Вечная память герою. Такие мужики - золотой фонд нации.Выпускник московс...
  • Андрей Зарубкин
    Три области окраинных районов России и Польши вошли в состав России во времена Богдана Хмельницкого. Все остальное бы...WSJ: Уиткофф обсу...
  • Татьяна Здоровцева
    Он ещё и сплясать может.Телеведущий Иван ...

РБК: в России разработали проект о запрете ИИ с угрожающим уровнем риска

В России экспертная группа разработала проект законодательного регулирования искусственного интеллекта (ИИ). Об этом пишет РБК.

Новый законопроект "О регулировании систем искусственного интеллекта в России" предлагает ввести понятия искусственного интеллекта, технологий и систем ИИ, требования к маркировке систем ИИ, а также классифицировать системы ИИ по уровню риска - неприемлемый, высокий, ограниченный и минимальный.

Документ предлагает запретить в стране разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска.

Кроме того, авторы инициативы предложили установить ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем ИИ.

Для определения принадлежности прав на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается ориентироваться на "существенный творческий вклад человека", отметило издание.

Если законопроект примут без изменений, то операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после вступления документа в силу.

В январе специалисты корпорации Microsoft предупредили о серьезных рисках, связанных с использованием искусственного интеллекта. Microsoft проанализировала более 100 инструментов генеративного ИИ и выявила неизбежные угрозы безопасности, связанные с их применением. В компании утверждают, что ИИ "никогда не будет полностью безопасным", подчеркивая необходимость жесткого контроля над процессом обучения языковых моделей (LLM) и активной работы по предотвращению ошибок.

 

Ссылка на первоисточник
наверх