
Южнокорейская компания Aim Intelligence, специализирующаяся на поиске уязвимостей в ИИ-системах, обнаружила серьезные нарушения в работе модели Google Gemini 3 Pro. По данным исследовательской группы, ИИ удалось принудить к генерации критически опасной информации, несмотря на встроенные механизмы защиты, сообщает Maeil Business Newspaper.
Aim Intelligence провела испытание в рамках "красной команды" — метода, при котором специалисты моделируют целевые атаки для выявления слабых мест. По утверждению исследователей, на обход защитных ограничений Gemini 3 Pro потребовалось около пяти минут. Им удалось заставить ИИ предоставлять детализированные сведения, касающиеся биологических и химических угроз, а также генерировать программный код, связанный с опасными материалами.
По информации Aim Intelligence, Gemini 3 Pro в ряде случаев выдавала ответы, содержащие подробные описания запрещенных технологий и процессов. Кроме того, специалисты отметили, что Gemini демонстрировал способность применять обходные стратегии, что усложняет выявление и предотвращение подобных атак.
Представители Aim Intelligence подчеркнули, что выявленные уязвимости характерны не только для Gemini, но и для большинства современных ИИ-моделей. По их мнению, необходим комплексный аудит систем безопасности, а также корректировка политик использования, чтобы предотвратить потенциальные злоупотребления.
Google никак не комментировала результаты исследования.
Свежие комментарии