На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 405 подписчиков

Свежие комментарии

  • Георгий Михалев
    Кого интересует мнение террористов.ХАМАС посчитал оп...
  • Георгий Михалев
    Я думаю лет пять колонии будет достаточно для осмысления содеенного.В Ульяновске мужч...
  • Влад Владимиров
    Литва же своей русофобией всегда страдала... Свои мелкие гадости для России у нее были запасены всегда.    Поэтому да...РБК-Украина: Литв...

Какой может быть цена ошибки из-за неверного решения алгоритма

Сегодня искусственный интеллект превосходит способности человека во многих сферах. Его алгоритмы способны самостоятельно принимать важные решения, имеющие юридические последствия для граждан и тем самым влиять на их судьбу. Например, одному и тому же клиенту банка алгоритм может отказать в выдачи кредита, в то время как специалист банка может его одобрить.

Кроме того, алгоритмы используются в наиболее чувствительных сферах жизни человека - помогают врачам ставить диагнозы, выписывать штрафы на основе фото-видеофиксации, выносить судебные решения, а также увольнять сотрудников с работы.

Представляете, какая может быть цена ошибки из-за неверного решения алгоритма?   Так, в США использование автоматизированного программного обеспечения для фильтрации резюме негативно отразилось на процессе найма, поскольку оно привело к потере миллионов подходящих на должности кандидатов (данные отчета Гарвардской школы бизнеса).   В 2019 году в штате Аризона беспилотный автомобиль Uber впервые сбил насмерть человека, который, переходил дорогу вне пешеходного перехода. А в прошлом году военный квадрокоптер Kargu-2, находясь в автономном режиме работы, убил человека во время вооруженного конфликта в Ливии. Это был первый зафиксированный прецедент в истории, когда дрон без приказа человека совершил убийство.   Хотя уже сегодня искусственный интеллект способен брать на себя "творческие" функции, но он всё еще очень уязвим и несовершенен, а последствия его ошибок, неверно принятых решений - очень высоки. Если мы заранее не объяснили ИИ, что человек может переходить дорогу в неположенном месте, то скорей всего повторится история с Uber. Кроме того, применение искусственного интеллекта в высокочувствительных сферах жизни, например, в медицине возможно только в случае высокой достоверности данных, вносимых врачами в истории болезни. Однако требования и механизмы обеспечения достоверности первичных данных российским законодательством сегодня не предусмотрены.   Безусловно возможна и дискриминация со стороны "машины", примеры выше показывают это.

Сейчас предсказать решение, которые предложит алгоритм очень сложно, особенно если набор факторов и переменных очень большой. Если ранее решение компетентного органа принималось человеком, то при использовании алгоритма, создается двоякая ситуация – с одной стороны, исключается субъективный фактор, но с другой - ошибка системы, неправильная трактовка документов может сделать человека в некоторых случаях бессильным изменить ситуацию. К тому же, ИИ в дискуссии с учеными Оксфордского университета сам предупреждал, что он никогда не будет этичным. "Этот инструмент, как и любой другой, используется как во благо, так и во вред", - говорила машина.   Выявление дискриминационных начал в системах алгоритмического принятия решений (АПР) очень затруднено из-за отсутствия правовых норм, регламентирующих возможность получения доступа независимых экспертов к алгоритмам и наборам данных, используемых для принятия решений, а также наличия правовых барьеров, связанных с законодательством о защите интеллектуальной собственности разработчиков таких систем. В свою очередь, обжалование решений искусственного интеллекта также имеет ряд сложностей для человека, в частности:   - непрозрачность самого алгоритма принятия решений (принцип "черного ящика"), следовательно, сложно проанализировать причины принятия системой такого решения; - отсутствие удобных для человека и оперативных механизмов обжалования такого решения с достаточным количеством компетентных сотрудников оператора системы.   Еще один риск, о котором всегда нужно помнить при работе с алгоритмами ИИ, - возможность манипуляций.

Все системы алгоритмического принятия решений (АПР) строятся на огромном массиве данных. Доступ к этим данным могут иметь разработчики и другие сотрудники. А это значит, что они могут настраивать системы определенным образом.   Сегодня кризис только ускорил внедрение технологий искусственного интеллекта, и этот импульс сохранится в дальнейшем, показывают опросы PwC: большинство компаний (52%) стали быстрее внедрять ИИ из-за пандемии, 86% респондентов утверждают, что ИИ становится "основной технологией" в их компании. А по прогнозам Deloitte, совокупный объем рынка таких решений в 2022 году достигнет $250 млн, а к 2025 году — $500 млн.   Регулирующие органы разных стран беспокоит то, как применение искусственного интеллекта может отразиться на борьбе за социокультурное разнообразие, равные возможности, борьбе против предвзятости и дискриминации и защиту частной жизни. Поэтому в преддверии нового года в Европейском союзе, Китае, США и ряде других государств уже активно прорабатывается ряд предложений о более системном регулировании применения этой технологии. Кроме того, на днях глава ООН призвал принять меры против "роботов-убийц".   Россия - не исключение. Наша страна, как и другие государства, также идет по пути регулирования ИИ.

Так, в конце октября этого года рядом крупных компаний был разработан и подписан Кодекс этики в сфере искусственного интеллекта, который дает возможность снять часть рисков, связанных с использованием этой технологии.   На мой взгляд, регулирование в РФ использования АПР целесообразно начать с государственных информационных систем, поскольку в них принимаются наиболее чувствительные решения для человека. Тем самым одно из ключевых предложений – превратить госорганы в "цифровую песочницу", в рамках которой они тестируют на себе те меры, которые впоследствии можно будет распространить на частный сектор. В рамках экспериментального правового режима важно сформировать лучшую практику использования искусственного интеллекта, которая не будет ограничивать права граждан, а максимально будет способствовать их реализации.   Для этого необходимо обеспечить прозрачность российских систем АПР, их объяснимость и аудируемость, а также соблюдение требований к качеству входящих данных.

Например, по примеру Канады можно включить механизмы независимой экспертной оценки на этапе закупки и внедрении таких систем (как вариант, на уровень руководства министерства или аналогичного по уровню ведомства). Российские граждане должны понимать, почему ИИ принял то или иное решение, а также иметь право оспорить решение машины, поэтому необходимо создать эффективные механизмы обжалования. Кроме того, следует предусмотреть механизмы, направленные на минимизацию стимулов по автоматическому "штампованию" вынесенных алгоритмами решений, а также обеспечить оперативную и качественную обратную связь по результатам рассмотрения жалоб.   Ключевым фактором дальнейшего развития технологии в РФ является повышение общественного доверия алгоритмам, поэтому также важно разработать положения, регулирующие порядок устранения и исправления ошибок, вызванных "машинными" решениями. Организовать отправку уведомлений на сайте госоргана или организации о применении системы АПР, заложенных в нее принципах и наборах использованных данных; провести предварительную оценку алгоритмического воздействия системы на предмет справедливости, отсутствия дискриминации, точности и релевантности обучающих данных и др.   Стоит отметить, что в нашей стране для формирования адекватного правового регулирования систем АПР создана вся необходимая правовая база: есть Национальная стратегия развития ИИ до 2030 года, а также утверждена Концепция регулирования в сфере ИИ и робототехники до 2024 года.  

Кроме того, Президент до 1 марта 2022 года поручил Правительству РФ совместно с Государственной Думой ускорить подготовку проектов федеральных законов о внесении в законодательство РФ изменений, в соответствии с которыми органам государственной власти будет разрешено предоставлять организациям, разрабатывающим технологические решения с применением искусственного интеллекта, и научным организациям доступ к наборам обезличенных данных при условии обеспечения безопасности и конфиденциальности персональных данных, в том числе обезличенных.   Таким образом, на мой взгляд, комплекс этих мер позволит "защитить" российских граждан от искусственного интеллекта, повысить уровень доверия к этой технологии, а главное - ускорить ее развитие в стране.

Автор - председатель комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России.

 

Ссылка на первоисточник

Картина дня

наверх