На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 716 подписчиков

Свежие комментарии

  • Maxim
    Эрмитажу ещё на годик - продлить..В Петербурге влас...
  • Maxim
    Войска - к границе..Орбан: Венгрия не...
  • Тамара Кукушкина (куликова)
    Развязал войну,миротворец,а теперь в кусты? Помогите.Бог всё видит и расставить на свои места.Трамп: несколько ...

Киберэксперт Малофеев: риск от ИИ заключается в утрате цифрового суверенитета

Искусственный интеллект (ИИ) на сегодняшний день является одной из самых перспективных технологий. Нейросети уже применяются в быту, а в ближайшем будущем будут использоваться и в военной сфере. Однако ИИ несет в себе и довольно серьезные риски. Об этом в беседе с Tsargrad.tv сообщил генеральный директор ООО "Рус.

Цифра" Кирилл Малофеев.

Проблема, по его словам, заключается не только в том, что люди перестают самостоятельно думать и искать информацию. В человеческую жизнь могут зайти чужие нейросети, которые будут отбирать и формировать информацию так, как это выгодно их создателю.

"Риск заключается в утрате цифрового суверенитета. По той причине, что если государство не контролирует, что там написано, это контролирует кто-то другой. Вот этой мифической нейтральной нейросети, которая служит интересам человечества, конечно, не будет", - считает эксперт.

Именно поэтому большинство стран осознали необходимость создания собственных социальных сетей, мессенджеров, интернет-энциклопедий и видеохостингов, добавил Малофеев.

Психолог, заместитель директора Института клинической психологии и социальной работы Пироговского Университета Екатерина Орлова до этого объяснила, почему не стоит обсуждать свои проблемы с чат-ботами на основе ИИ. По ее словам, самые сокровенные переживания, страхи и травматические ситуации человека, доверенные алгоритму, могут оказаться в руках злоумышленников или даже недобросовестных корпораций.

Кроме того, нейросети не смогут оказать квалифицированную психологическую помощь человеку, так как не способны оценить невербальные проявления, отметила специалист.

 

Ссылка на первоисточник
наверх