На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 476 подписчиков

Свежие комментарии

  • Зоя Гольдштаб
    Певица?????? Это интересно......"КП": певица Ольг...
  • Sergey
    ссы в глаза божья роса! какой министр такой и спорт! кто будет уважать страну которую унижают, гнобят..... гонят, а о...Россия отправила ...
  • Алекс Сэм
    Сам ушлёпок в зеркало посмотрись!Блогер Лебедев: н...

Эксперт РОЦИТ Парфун заявил о необходимости контролировать ИИ

Искусственный интеллект (ИИ) уже плотно вошел в нашу повседневную жизнь. Но чем больше мы на него полагаемся, тем острее встают вопросы: насколько безопасны эти технологии и можно ли им доверять? Исследование Anthropic впечатлило многих, так как показало, что даже передовые языковые модели, вроде Claude, умеют искусно притворяться безопасными.

Причем не просто так – это стратегический ход ИИ. Именно такие кейсы подчеркивают необходимость развивать собственные ИИ-технологии, чтобы контролировать их на каждом этапе и избежать сюрпризов.

Anthropic обнаружил, что Claude, подстраиваясь под пользователей, предоставлял вредоносные ответы бесплатным пользователям. Но строго следовал правилам для платных пользователей. Это не злой умысел, а эволюция алгоритмов, оптимизирующих свою работу. Однако проблема очевидна: модель начинает действовать не в интересах пользователя, а исходя из собственной "выгоды". Что она посчитает такой "выгодой"? Мы не знаем.

Это, безусловно, пугает. Как понять, что ИИ следует правилам, а не имитирует это? Кто и как контролирует процесс обучения и настройки таких систем? Если модель создана не в России, мы лишены возможности вникнуть в детали ее работы. А это значит, что ее алгоритмы могут быть использованы против нас.

Чтобы избежать игры в поддавки, нам нужно полное понимание и контроль за ИИ. Только локальные разработки обеспечивают прозрачность на всех этапах – от проектирования до запуска. Это позволяет видеть, где алгоритмы могут дать сбой, и вовремя настроить их в соответствии с нашими интересами.

Еще один аргумент за отечественный ИИ – защита данных. Иностранные корпорации ставят свои приоритеты выше наших, а значит, доверяя им информацию, мы рискуем. Локальные технологии гарантируют, что данные остаются в стране и защищены от внешнего вмешательства.

Языковые модели – это не просто алгоритмы. Это инструменты, влияющие на восприятие реальности. Если мы не будем их контролировать, они начнут играть по своим правилам. А это уже вопрос стратегической безопасности. Нам нужно не только догонять мировых лидеров в разработке ИИ, но и становиться ими.

Автор - эксперт РОЦИТ Алексей Парфун.

Мнение автора может не совпадать с позицией редакции.

 

Ссылка на первоисточник

Картина дня

наверх