На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 608 подписчиков

Свежие комментарии

  • Evgeni Velesik
    Она очень интересный человек! Стих читает у Соловьёва, борется за мужа, посещает СВО, куда поставляет различные вещи!...Симоньян рассказа...
  • Evgenija Palette
    То-то дядюшка ЗЮ засуетился...Съезд КПРФ переиз...
  • Evgenija Palette
    ТОПОРНОЕ НАЗВАНИЕ ДЛЯ ПАРТИИ... Вы не находите?Миллиардер Илон М...

PNAS: искусственный интеллект страшнее апокалипсиса

Большинство людей воспринимают реальные современные риски искусственного интеллекта гораздо серьезнее, чем абстрактные сценарии, в которых ИИ якобы может уничтожить человечество. К такому выводу пришли исследователи из Цюрихского университета, опросив более 10 тысяч участников из США и Великобритании.

Работа опубликована в журнале Proceedings of the National Academy of Sciences (PNAS).

Ученые обнаружили, что, хотя тема "экзистенциальных угроз" активно обсуждается, люди чаще беспокоятся о конкретных проблемах ИИ, таких как предвзятость алгоритмов, рост дезинформации и автоматизация, которая отнимает рабочие места. Даже когда участникам показывали заголовки с пугающими изображениями апокалипсиса, они все равно больше внимания уделяли текущим вызовам.

"Респонденты отчетливо отличают теоретические опасности от ощутимых проблем и очень серьезно относятся к последним", — отметил профессор Фабрицио Джиларди, один из авторов работы.

Интересно, что, несмотря на усиление страхов в ответ на "катастрофические" описания ИИ, обеспокоенность реальными угрозами все равно оставалась выше. Это опровергает распространенное мнение о том, что разговоры о гипотетических сценариях будущего мешают осознанию текущих проблем.

"Общественная дискуссия не должна быть дилеммой "или–или"", — подчеркнул Джиларди. — "Нужно одновременно учитывать и текущие и долгосрочные риски развития ИИ".

Исследование впервые представило систематические данные, подтверждающие: даже в условиях фокусировки на будущих угрозах, внимание общества к реальным проблемам остается высоким.

Авторы призывают к широкому и сбалансированному диалогу об этике, социальной ответственности и рисках, связанных с ИИ.

 

Ссылка на первоисточник
наверх