На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 634 подписчика

Свежие комментарии

  • Сергей
    Опять ганд...ы пробирками трясти начали!!!Хуситы опровергли...
  • Наталья Эрнст
    Безмолвный скот не спрашивают кого доить, с кого шерсть стричь. В стойло и молчать... Европейцы скорее всего выйдут н...WSJ: в Европе рас...
  • Юрий Шишлов
    Господи! Откуда на Западе берутся такие тупые чиновники?!!!Малышева: Стубб к...

Киберэксперт Малофеев: риск от ИИ заключается в утрате цифрового суверенитета

Искусственный интеллект (ИИ) на сегодняшний день является одной из самых перспективных технологий. Нейросети уже применяются в быту, а в ближайшем будущем будут использоваться и в военной сфере. Однако ИИ несет в себе и довольно серьезные риски. Об этом в беседе с Tsargrad.tv сообщил генеральный директор ООО "Рус.

Цифра" Кирилл Малофеев.

Проблема, по его словам, заключается не только в том, что люди перестают самостоятельно думать и искать информацию. В человеческую жизнь могут зайти чужие нейросети, которые будут отбирать и формировать информацию так, как это выгодно их создателю.

"Риск заключается в утрате цифрового суверенитета. По той причине, что если государство не контролирует, что там написано, это контролирует кто-то другой. Вот этой мифической нейтральной нейросети, которая служит интересам человечества, конечно, не будет", - считает эксперт.

Именно поэтому большинство стран осознали необходимость создания собственных социальных сетей, мессенджеров, интернет-энциклопедий и видеохостингов, добавил Малофеев.

Психолог, заместитель директора Института клинической психологии и социальной работы Пироговского Университета Екатерина Орлова до этого объяснила, почему не стоит обсуждать свои проблемы с чат-ботами на основе ИИ. По ее словам, самые сокровенные переживания, страхи и травматические ситуации человека, доверенные алгоритму, могут оказаться в руках злоумышленников или даже недобросовестных корпораций.

Кроме того, нейросети не смогут оказать квалифицированную психологическую помощь человеку, так как не способны оценить невербальные проявления, отметила специалист.

 

Ссылка на первоисточник
наверх