На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 262 подписчика

Свежие комментарии

  • АндрейБорков
    Вы это нашим властям скажите, как содержать пленных. Это не мной придумано. В мою бытность, когда я и мои товарищи за...Под Марьинкой сда...
  • валерий лисицын
    Молодцы ребята! Бей бандер и в хвост и в гриву.МО: расчет ЗРК "Б...
  • Валерий Бирюков
    Значит блокадникам по 125 граммов чёрного хлеба с мякиной, а хохлопердам - по нормам для пленных? Не жирновато будет?...Под Марьинкой сда...

В Сбере оценили возможности использования искусственного интеллекта

Искусственный интеллект сейчас активно развивается в нашей стране, находится в фокусе внимания государственной власти и высокотехнологичных компаний, есть национальная стратегия его развития и отдельный федеральный проект. Подготовлен проект этического кодекса, возможно появление омбудсмена или специального органа, который будет отвечать за цифровую этику. Принципы "верхнего уровня" предполагается закрепить законодательно, а отраслевые нормы будут приниматься игроками рынка в рамках саморегулирования. Об этом говорилось на сессии Дискуссионного клуба ВШЭ и Сбера — "ИИ-трансформация компаний и государства: Развитие этики ИИ в России и в мире".   Проректор, директор Института государственного и муниципального управления НИУ ВШЭ Андрей Жулин уверен, что мир пока очень далек от того, чтобы искусственный интеллект принимал какие-то решения или даже их подсказывал.   "Недавно мы выпустили доклад, согласно которому около 30% функций федеральных органов власти относятся к рутинным и за счет цифровизации могут быть исключены или заменены. Но речь еще не идет про искусственный интеллект, речь идет про достаточно простые алгоритмы, простую работу с данными. Мне кажется, мы еще долго не подойдем к тому, что для каких-то решений, даже очень простых, будет применяться искусственный интеллект. Если выстраивать нормальный искусственный интеллект, нужны большие объемы хороших данных, хорошие учетные системы, что, на наш взгляд, наблюдается в очень небольшом количестве сфер. Плюс в государстве в целом еще не решен вопрос работы с большими данными", — поделился мнением эксперт.   Первый заместитель председателя правления Сбербанка Александр Ведяхин, в свою очередь, отметил, что в данном случае многое зависит от выборки, то есть от материала, используемого для обучения искусственного интеллекта. По его словам, уже сейчас ИИ приносит ощутимую пользу — например, помогает врачам при диагностике пациентов с COVID-19, позволяя на ранней стадии выявить потенциально тяжелые случаи, требующие особого внимания. Кроме того, как рассказал Ведяхин, в США искусственный интеллект исполняет роль помощника судей, подсказывая им возможные решения по рассматриваемым делам.   "Искусственный интеллект во многом похож на ребенка — как мы его сейчас научим, так он и будет себя вести в будущем. Помните известную историю о том, как к мудрецу привели трехлетнего ребенка и попросили его обучить? А мудрец ответил, что уже поздно, все сделано до него. Сейчас же у нас есть уникальная возможность, когда нашему ребенку еще совсем мало дней по шкале человеческой жизни, и он научился только отличать кошек от собак. Поэтому мы можем рассказывать ему, что такое хорошо и что такое плохо, и только тогда быть уверенным, что действительно все произойдет правильно. Как и в любом воспитании, есть рамки, в которых должен воспитываться ребенок, и пример родителей, тех, кто его обучает, наставляет, отдает данные, пишет алгоритмы, верифицирует, очень важен. А наш ребенок – искусственный интеллект – должен делать все, чтобы уважать своих "родителей" и помогать им", — заключил Александр Ведяхин.   Он также рассказал, что Сбер подготовил мировой обзор корпоративных принципов этики ИИ. Согласно исследованию, в настоящее время такие принципы приняты почти у 30 крупнейших разработчиков ИИ в мире. Большинство принципов этики ИИ были приняты в период с 2018 по 2019 год. В среднем компании утвердили по шесть принципов, самыми популярными из них являются справедливость и непредвзятость (приняты в 18 компаниях), безопасность и надёжность (в 18 компаниях), прозрачность (в 17), подотчётность (в 11), управляемость и контролируемость (в 11), человеко-ориентированный подход и уважение прав человека (в 10).

 

Ссылка на первоисточник

Картина дня

наверх