Исследователь искусственного интеллекта из США Элиезер Юдковский, который предупреждал об опасностях технологии с начала 2000-х годов, заявил о необходимости срочно "отключить все системы с ИИ". О важности этой меры для спасения человечества он написал в колонке для журнала Time.
В статье Юдковского под названием "Недостаточно приостановить разработку ИИ.
Нам нужно закрыть все это", говорится, что он воздержался от подписания письма бизнесменов Илона Маска и Стива Возняка, потому что оно преуменьшает "серьезность ситуации"."Этого слишком мало для решения проблемы. Многие исследователи, погруженные в эти проблемы, в том числе и я, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдаленно напоминающих нынешние, будет то, что буквально все на Земле умрут", - написал специалист.
Он объяснил, что ИИ "не заботится ни о людях, ни о разумной жизни в целом". Юдковский уверен, что в настоящее время мы далеки от внедрения таких принципов в технологии.
Вместо этого Юдковский предложил запрет, который является "бессрочным и всемирным" без исключений для правительств или вооруженных сил. "Если разведка сообщает, что страна, не входящая в соглашение, строит кластер графических процессоров, опасайтесь не столько перестрелки между странами, сколько нарушения моратория; будьте готовы уничтожить их так называемый центр обработки данных с помощью авиаудара", - заключил он.
Юдковский неоднократно крайне эмоционально предупреждал о возможных катастрофических последствиях ИИ.
Ранее ученый-информатик Джеффри Хинтон, которого называют "крестным отцом искусственного интеллекта", выступил с похожим заявлением. Специалист предупредил человечество об опасностях неконтролируемого развития ИИ.
Свежие комментарии