
Авиаудар по школе для девочек в Иране во время атаки США и Израиля мог случиться в результате неправильной интерпретации данных, полученных военными в результате разведки по рекламным данным. Некорректную наводку мог дать искусственный интеллект (ИИ), который применяется Минобороны США для обработки разведданных.
Об этом "Газете.Ru" рассказал эксперт по информационной безопасности (ИБ) и председатель совета по противодействию технологическим правонарушениям Координационного совета негосударственной сферы безопасности РФ (КС НСБ) Игорь Бедеров."Американские военные используют ИИ и достаточно давно. Это уже не теория, а практика. Речь идет не о роботах-терминаторах, а о системах поддержки принятия решений", — отметил он.
По словам эксперта, подобные платформы анализируют спутниковые снимки, перехваты переговоров и данные беспилотников, ранжируют цели и ускоряют процесс принятия решений.
Бедеров считает, что чисто визуально современные нейросети вряд ли могли перепутать школу с фабрикой, как ранее писало издание The Washington Post. Однако риск возникает при использовании так называемой разведки на основе рекламных данных (технологии ADINT), которая позволяет идентифицировать пользователя смартфона, а также следить за его перемещением используя легальную информацию, собираемую мобильными приложениями и онлайн-сервисам. По словам Бедерова, в мире существует больше 10 компаний, которые специализируются на ADINT, и большая их часть сотрудничает со спецслужбами западных стран.
"Представьте, что ADINT-специалисты зафиксировали телефон цели, террориста.
Но этот телефон – у иранского ребенка, который просто пользуется Facebook или Instagram. SIM-карта зарегистрирована не на него, а на отца или дядю, что не редкость. ADINT показывает только смартфон цели, но то, что в данный момент им пользуется ребенок, нет. При этом в другие дни смартфон действительно бывает в зоне объектов, которые интересуют военных. Алгоритм видит связь ("телефон бывает в опасном районе"), предполагает террориста и дает рекомендацию бить по цели. При этом в момент удара цель – в школе", – сказал он.По словам Бедерова, решение о каждом ударе принимает человек, а не ИИ. Он допустил, что предоставленные искусственным интеллектом данные были некачественно проанализированы ответственными людьми, из-за чего и пострадала школа.
"Когда идет масштабная операция и нужно нанести 900 ударов за 12 часов, как это было в начале конфликта , человеческий контроль становится формальностью. Офицер просто физически не может перепроверить каждую цель. Он доверяет системе. Возникает когнитивный сдвиг: раз ИИ дал рекомендацию – значит, так надо", – сказал эксперт.
В The Washington Post со ссылкой на источники сообщили, что школа могла быть ошибочно идентифицирована как промышленный или военный объект из-за просчета разведки либо сбоя алгоритмов ИИ. По данным The New York Times, удар был нанесен американской ракетой Tomahawk 28 февраля – в первый день операции США и Израиля против Ирана. В результате атаки погибли 168 школьниц и 14 сотрудников образовательного учреждения.
Свежие комментарии