На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 608 подписчиков

Свежие комментарии

  • Evgeni Velesik
    На фото кто? Это тот кто въехал? Трудовой мигрант?В такси арбитров ...
  • Николай Герасименко
    Всюду проникли шароварники и в редакцию The New York Post тоже!The New York Post...
  • Николай Герасименко
    Даже Индия понимает какой вред несёт эта западная пропагандистская инфопомойка Reuters! А у нас, наши СМИ ссылаются н...PTI: в Индии забл...

Киберэксперт Малофеев: риск от ИИ заключается в утрате цифрового суверенитета

Искусственный интеллект (ИИ) на сегодняшний день является одной из самых перспективных технологий. Нейросети уже применяются в быту, а в ближайшем будущем будут использоваться и в военной сфере. Однако ИИ несет в себе и довольно серьезные риски. Об этом в беседе с Tsargrad.tv сообщил генеральный директор ООО "Рус.

Цифра" Кирилл Малофеев.

Проблема, по его словам, заключается не только в том, что люди перестают самостоятельно думать и искать информацию. В человеческую жизнь могут зайти чужие нейросети, которые будут отбирать и формировать информацию так, как это выгодно их создателю.

"Риск заключается в утрате цифрового суверенитета. По той причине, что если государство не контролирует, что там написано, это контролирует кто-то другой. Вот этой мифической нейтральной нейросети, которая служит интересам человечества, конечно, не будет", - считает эксперт.

Именно поэтому большинство стран осознали необходимость создания собственных социальных сетей, мессенджеров, интернет-энциклопедий и видеохостингов, добавил Малофеев.

Психолог, заместитель директора Института клинической психологии и социальной работы Пироговского Университета Екатерина Орлова до этого объяснила, почему не стоит обсуждать свои проблемы с чат-ботами на основе ИИ. По ее словам, самые сокровенные переживания, страхи и травматические ситуации человека, доверенные алгоритму, могут оказаться в руках злоумышленников или даже недобросовестных корпораций.

Кроме того, нейросети не смогут оказать квалифицированную психологическую помощь человеку, так как не способны оценить невербальные проявления, отметила специалист.

 

Ссылка на первоисточник
наверх