На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 692 подписчика

Свежие комментарии

Юрист Минакова: ИИ в работе может приводить к ошибкам и серьезным проблемам для людей

Использование искусственного интеллекта (ИИ) в работе может приводить к ошибкам и серьезным проблемам для людей и бизнеса. Алгоритмы не всегда понимают смысл информации и могут принимать неверные решения, сказала "Газете.Ru" главный юрист компании "Моя удаленка" Валерия Минакова.

"Например, ИИ может неправильно читать текст.

Он иногда путается в словах "не" и "нет". Из-за этого система может решить, что у человека есть болезнь, хотя в документе написано, что ее нет. Если врач без проверки поверит ИИ, это может навредить пациенту. Ошибки случаются и в сервисах для клиентов. Так, издание The Guardian писало о случае с чат-ботом авиакомпании Air Canada. Бот дал пассажиру неверный совет о возврате билета. После перелета оказалось, что совет был неправильным. Мужчина обратился в суд, и компанию обязали выплатить компенсацию — 812 канадских долларов", — отметила Минакова.

По ее словам, ИИ также может блокировать аккаунты или отказывать в услугах без понятного объяснения: летом 2025 года пользователи Instagram жаловались на блокировки, хотя не нарушали правила. Люди считали, что это произошло из-за автоматических проверок с помощью ИИ, добавила Минакова.

По ее мнению, из-за таких ситуаций возникает главный вопрос: кто отвечает за ошибки алгоритмов, если они влияют на доход, работу или репутацию человека. Минакова подчеркнула, что многие страны уже меняют подход к регулированию ИИ — они требуют, чтобы решения алгоритмов можно было объяснить, а человек имел право вмешаться. Например, в Евросоюзе принят AI Act, который обязывает компании делать ИИ понятным и управляемым, особенно в медицине, финансах и госуслугах.

"В России также движутся в сторону контроля ИИ. Закон о платформенной занятости требует, чтобы автоматические решения можно было проверять и оспаривать. Это особенно важно для самозанятых и фрилансеров, чей доход зависит от цифровых платформ. ИИ не должен работать полностью сам по себе. Новая норма — человек контролирует алгоритм, а компании заранее прописывают ответственность за ошибки, утечки данных и несправедливые решения", — заключила Минакова.

Она заключила, что ИИ — это не "умная кнопка", а система, которая может ошибаться, поэтому за ней всегда должен стоять человек.

 

Ссылка на первоисточник
наверх