На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 670 подписчиков

Свежие комментарии

  • Ильдус Мамлеев
    Лучше уж сразу вешают в сортире, они жена ним работали, хоть для чего то сгодиться однако.WSJ: европейские ...
  • Ильдус Мамлеев
    Хоть один нормальный голос человека на всю Германию.Глава "Союза за р...
  • Владимир Тимошков
    Даже если предложат значительно сумму я не буду слушать бесталанных, не умеющих петь бормотологов типа рапёров. Тольк...Super: рэпер Maca...

Философ Ветушинский: чтобы найти сознание у ИИ, нужно его операционализировать

Эксперименты по проявлению сознания у ИИ возможны, но для этого сознание нужно операционализировать, то есть превратить в то, с чем можно работать, рассказал "Газете.Ru" философ, руководитель профиля "Гейм-дизайн", преподаватель, специалист по истории и теории видеоигр, эксперт Лаборатории геймификации Сбербанка Александр Ветушинский.

Ранее стало известно, что "Яндекс" начал эксперимент по проявлению сознания у ИИ. Компания намерена проверить, способна ли нейросеть сформировать свою точку зрения и устойчивые предпочтения, которые не были бы заимствованы из текстов людей. Если эксперимент окажется успешным, это может стать первым в мире случаем создания ИИ с зачатками собственного мышления, что откроет новые возможности для науки и технологий.

"Сознание нужно концептуализировать и операционализировать, то есть превратить в то, с чем можно работать. Согласно философии сознания, которая тесно связана с современными нейронауками, сознание – это "каково быть мной", – то, что происходит со мной внутри. Это может быть сведено к тому, что мы называем самосознанием. – объяснил Александр Ветушинский в кулуарах конференции "Философия в ответе", проходящей в эти дни в Москве.

По его словам, сознание искусственных систем нужно операционализировать. Если с интеллектом это сделать легко, потому что он считается с помощью тестов IQ, то с сознанием нужно нащупать что-то, чтобы хотя бы косвенно позволяет утверждать, что ИИ как-то себя осознает.

"Вопрос здесь в рационализации. Вероятно, это связано с ментальным словарем. Например, когда я говорю "мне больно", я имею в виду не поведение объектов, а свои чувства.

Или, скажем, "я чувствую тоску". Это ключевые слова, которые мы используем для описания внутреннего мира. Однако, учитывая, что большие лингвистические модели обучаются на массиве фраз, они могут включать в себя все эти фразы. Поэтому скорее всего придется идти в уточнение, проверку, чтобы убедиться, насколько действительно ИИ сознает себя. Таким образом, мы можем сказать, что эти эксперименты проводятся с определенной целью — понять, как можно операционализировать понятие сознания", – рассказал Ветушинский.

При этом философ подчеркнул: когда мы слышим громкие заявления о том, что искусственные системы обладают сознанием, важно помнить, что это не всегда означает наличие того сознания, которое мы себе представляем.

"Поэтому важно критически оценивать такие заявления и понимать, как именно исследователи определяют сознание в контексте своих экспериментов. Это поможет нам лучше понять, что именно эти эксперименты доказывают на самом деле", – заключил специалист.

 

Ссылка на первоисточник
наверх