Угроза захвата власти искусственным интеллектом (ИИ) активно обсуждается среди ученых, философов и экспертов. Голливуд часто пугает зрителей апокалиптическими картинами восстания машин, но важно отделить вымысел от реальности. О текущей ситуации, прогнозах специалистов и способах предотвращения возможных проблем "Газете.
Ru" рассказал директор департамента голосовых цифровых технологий компании BSS Александр Крушинский.По его словам, современный ИИ, в основном узкоспециализированный, выполняет задачи без сознания, например, консультирует через чат-боты и помогает с типовыми запросами в банковской сфере. Существует два типа ИИ: "слабый" (Narrow AI), который решает конкретные задачи, и "сильный" (AGI), гипотетический интеллект, который еще не создан. В вопросе его безопасности научное сообщество разделено на пессимистов (Илон Маск), считающих AGI экзистенциальной угрозой, и оптимистов, таких как Эндрю Ын и Янн ЛеКун, полагающих, что ИИ останется просто инструментом, и его опасности преувеличены.
"Сегодня опасности могут возникнуть при некорректной формулировке целей, как было в случае с торговой системой, спровоцировавшей "Флэш-крэш" на бирже в 2010 году. Использование ИИ в критической инфраструктуре может стать угрозой при сбоях или хакерских атаках, а в военных целях ИИ повышает риски конфликтов. Алгоритмы ИИ в соцсетях влияют на политику и общественное мнение, способствуя поляризации и дезинформации, что может привести к цифровой диктатуре и социальной дестабилизации. Однако технически ИИ можно контролировать", — отметил Крушинский.
Искусственный интеллект — это мощный инструмент, способный трансформировать общество, и основной вопрос заключается в гарантии контроля над ним.
"Неконтролируемый" ИИ может действовать вне рамок. Причинами этого являются сложность систем, некорректно сформулированные цели и технологическая гонка, которая способна игнорировать этические проверки. Для предотвращения неконтролируемости необходимы принципы прозрачности и безопасности, а также технические и регуляторные меры, включая ограничения на возможности ИИ и проверки безопасности алгоритмов. Основной угрозой остается не восстание машин, а вопросы контроля за их использованием в будущем", — объяснил эксперт.
В краткосрочной перспективе (10–20 лет) ожидается развитие "слабого" ИИ (Narrow AI) как инструмента в руках людей. Основные риски включают автоматизацию, которая может привести к массовой безработице (по данным McKinsey, до 30% рабочих задач к 2030 году), манипуляцию сознанием через deepfakes и персонализированную пропаганду, а также использование автономного оружия. Более 30 стран обсуждают запрет таких систем, однако юридические рамки отстают от технологий.
"Создание AGI изменит баланс сил. Ученые разделились на два лагеря: пессимисты, например, Ник Бостром, считают AGI экзистенциальной угрозой, если его цели не совпадают с человеческими. Оптимисты, такие как Янн ЛеКун и Родни Брукс, полагают, что AGI вряд ли появится в этом веке и что его можно будет контролировать. Исследования 2022 года показали, что 48% из 738 опрошенных учёных считали вероятность катастрофического исхода от ИИ выше 10%, но лишь 5% видели в этом главную угрозу. Проект "AI Alignment" направлен на выравнивание целей ИИ с человеческими ценностями", — сказал эксперт.
Однако даже без AGI ИИ уже влияет на власть через цифровые диктатуры, такие как китайская система социального рейтинга и распознавания лиц, где ИИ становится инструментом авторитарных режимов. Корпорации, например Google и Meta, используют ИИ для управления вниманием пользователей, влияя на их выбор, в то время как в Эстонии 99% госуслуг оказываются через ИИ-системы, и сбой может парализовать страну. А ситуация в 2023 году, когда ChatGPT временно запретили в Италии из-за проблем с приватностью данных, иллюстрирует конфликт между технологиями и регуляторами.
"Для предотвращения рисков следует внедрять жесткое регулирование, подобное EU AI Act, которое запрещает использование ИИ в социальном скоринге и массовой слежке. Необходимы технологии безопасности, такие как "красные кнопки", тестовые среды и алгоритмическая прозрачность. Кроме того, международное сотрудничество, например через проекты GPAI, поможет выработать этические стандарты", — уверен специалист.
Он отметил, что важно понимать, что реальные угрозы возникают из-за человеческих ошибок и жадности, а не из-за захвата власти ИИ. Проблемы могут быть цифровыми (кибератаки) или экономическими. Профилактика требует глобального сотрудничества, регулирования и инвестиций в безопасность ИИ.
Свежие комментарии