На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 729 подписчиков

Свежие комментарии

  • Валерий Фоменков
    Ошибочно созданное В.И. Лениным образование под названием "Украина" должно полностью прекратить своё существование. Е...Экс-офицер ЦРУ Дж...
  • Амара Карпова
    МОЛОДЦЫ РЕБЯТА👍😎❤️Спасибо нашему АРМАГЕДДОНУ❤️ИА "Вести": мужес...
  • Алекс Сэм
    Эти деньги диаспоры заплатят , а чучмеки потом отработают. Да давно уже надо ввести оргнабор то есть предприниматель ...Миронов: пошлины ...

PNAS: искусственный интеллект страшнее апокалипсиса

Большинство людей воспринимают реальные современные риски искусственного интеллекта гораздо серьезнее, чем абстрактные сценарии, в которых ИИ якобы может уничтожить человечество. К такому выводу пришли исследователи из Цюрихского университета, опросив более 10 тысяч участников из США и Великобритании.

Работа опубликована в журнале Proceedings of the National Academy of Sciences (PNAS).

Ученые обнаружили, что, хотя тема "экзистенциальных угроз" активно обсуждается, люди чаще беспокоятся о конкретных проблемах ИИ, таких как предвзятость алгоритмов, рост дезинформации и автоматизация, которая отнимает рабочие места. Даже когда участникам показывали заголовки с пугающими изображениями апокалипсиса, они все равно больше внимания уделяли текущим вызовам.

"Респонденты отчетливо отличают теоретические опасности от ощутимых проблем и очень серьезно относятся к последним", — отметил профессор Фабрицио Джиларди, один из авторов работы.

Интересно, что, несмотря на усиление страхов в ответ на "катастрофические" описания ИИ, обеспокоенность реальными угрозами все равно оставалась выше. Это опровергает распространенное мнение о том, что разговоры о гипотетических сценариях будущего мешают осознанию текущих проблем.

"Общественная дискуссия не должна быть дилеммой "или–или"", — подчеркнул Джиларди. — "Нужно одновременно учитывать и текущие и долгосрочные риски развития ИИ".

Исследование впервые представило систематические данные, подтверждающие: даже в условиях фокусировки на будущих угрозах, внимание общества к реальным проблемам остается высоким.

Авторы призывают к широкому и сбалансированному диалогу об этике, социальной ответственности и рисках, связанных с ИИ.

 

Ссылка на первоисточник
наверх