На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 553 подписчика

Свежие комментарии

  • Владимир Алтайцев
    Два  дебила  это сила. Ни Трамп, ни Зеля  абсолютно  не  знают историю Крыма, а Кремль ни разу  не посмел  двух  этих...Трамп не стал отв...
  • Leon Dan
    И тут тоже стрелочника нашли.В Москве освободи...
  • Gennady Domnenko
    А когда к Зеле 9-го мая приедут европейские педерасты, они ведь тоже будут законноц целью.Экс-депутат Рады ...

PNAS: искусственный интеллект страшнее апокалипсиса

Большинство людей воспринимают реальные современные риски искусственного интеллекта гораздо серьезнее, чем абстрактные сценарии, в которых ИИ якобы может уничтожить человечество. К такому выводу пришли исследователи из Цюрихского университета, опросив более 10 тысяч участников из США и Великобритании.

Работа опубликована в журнале Proceedings of the National Academy of Sciences (PNAS).

Ученые обнаружили, что, хотя тема "экзистенциальных угроз" активно обсуждается, люди чаще беспокоятся о конкретных проблемах ИИ, таких как предвзятость алгоритмов, рост дезинформации и автоматизация, которая отнимает рабочие места. Даже когда участникам показывали заголовки с пугающими изображениями апокалипсиса, они все равно больше внимания уделяли текущим вызовам.

"Респонденты отчетливо отличают теоретические опасности от ощутимых проблем и очень серьезно относятся к последним", — отметил профессор Фабрицио Джиларди, один из авторов работы.

Интересно, что, несмотря на усиление страхов в ответ на "катастрофические" описания ИИ, обеспокоенность реальными угрозами все равно оставалась выше. Это опровергает распространенное мнение о том, что разговоры о гипотетических сценариях будущего мешают осознанию текущих проблем.

"Общественная дискуссия не должна быть дилеммой "или–или"", — подчеркнул Джиларди. — "Нужно одновременно учитывать и текущие и долгосрочные риски развития ИИ".

Исследование впервые представило систематические данные, подтверждающие: даже в условиях фокусировки на будущих угрозах, внимание общества к реальным проблемам остается высоким. Авторы призывают к широкому и сбалансированному диалогу об этике, социальной ответственности и рисках, связанных с ИИ.

 

Ссылка на первоисточник
наверх