На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 639 подписчиков

Свежие комментарии

  • александр крот
    Как хорошо. Вот пусть сосвоего кармана платят. Будут знать где отдыхать да и другим наукаРоссияне, пострад...
  • Алекс Архипов
    Жить стало лучше, жить стало веселей?Мишустин: ВВП РФ ...
  • Александр Лагуткин
    Дай Бог! Может прозреют наш законотворцы  наконец и прекратят замещение коренного населения России средневековыми осо...Володин: трудовым...

ФСТЭК приступила к разработке правил безопасности для создания ИИ

Федеральная служба по техническому и экспортному контролю (ФСТЭК) намерена представить проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ) до конца 2025 года. Этот документ станет дополнением к уже существующим стандартам по безопасной разработке программного обеспечения (ПО).

Об этом, как пишут "Ведомости", сообщил первый заместитель директора ФСТЭК Виталий Лютиков на форуме BIS-2025, уточнив, что новый стандарт будет нацелен на специфические уязвимости и угрозы ИИ.

Лютиков отметил, что ведомство активно работает над документом и планирует представить его для обсуждения экспертному сообществу к концу текущего года.

По мнению директора департамента расследований T.Hunter Игоря Бедерова, новый проект стандарта ФСТЭК будет представлять собой детализированное методическое руководство, дополняющее существующие "Требования по безопасной разработке программного обеспечения" специфическими мерами для жизненного цикла систем ИИ. Он подчеркнул, что традиционный стандарт по безопасной разработке ПО (SDLC) охватывает общие практики, но системы ИИ имеют фундаментальные отличия, требующие особого подхода к моделированию угроз.

Консультант по безопасности Positive Technologies Алексей Лукацкий напомнил, что в 117-м приказе ФСТЭК, который вступит в силу с 1 марта 2026 года и устанавливает новые требования к защите информации в государственных информационных системах, уже есть раздел, посвященный безопасности ИИ, моделей и используемых для их обучения датасетов. Однако, по его словам, столь сложная тема не может быть исчерпана одной страницей приказа, который лишь постулирует требование, но не дает конкретных инструкций по его реализации.

 

Ссылка на первоисточник
наверх