На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 707 подписчиков

Свежие комментарии

  • Динислам Абдуллин
    Это изначально было ясно, кто то себя ещё тешил иллюзиями, напрасно. Пока хохлов жареный пИтух в жопу не клюнет, они ...Экс-посланник по ...
  • Ирина Галивец
    Позор тем, кто пойдет на этот концерт!РИА Новости: орга...
  • Динислам Абдуллин
    Да пусть на хер загибается эта Финляндия! Перекрыть им всё и вся и полностью обнулить с ними товарооборот. Пусть с СШ...Кузнецов: намеков...

Битрикс24": использование ИИ при найме может привести к штрафам и потере репутации

ИИ-ассистенты при найме персонала работают с массивами персональных и поведенческих данных сотрудников и соискателей, поэтому цена ошибки критична, сказал "Газете.Ru" руководитель отдела персональных данных "Битрикс24" Алексей Масланов. По его словам, использование ИИ в HR может обернуться штрафами и репутационными потерями.

Эксперт отметил, что в России тема напрямую связана с требованиями ФЗ-152 "О персональных данных" и нормами трудового законодательства о защите данных работников. Ключевой вопрос для работодателя — не только можно ли обрабатывать данные, но и насколько прозрачен алгоритм, влияющий на права человека, сказал Масланов. Если решение об отказе в приеме на работу или повышении опирается на выводы модели, компания должна уметь объяснить логику такого кадрового решения, а не ссылаться на формулу "так посчитал алгоритм", предупредил эксперт.

По его словам, в HR-ИИ обычно попадают персональные сведения (ФИО, контакты, дата рождения, гражданство, образование, опыт работы), поведенческие метрики (продуктивность, активность в корпоративных системах, KPI, участие в проектах), психометрические результаты тестов и оценка soft-skills, а также видео- и аудиоданные — записи интервью, расшифровки, голосовые ответы. Эксперт напомнил, что статья 86 ТК РФ запрещает основывать решения, затрагивающие интересы работника, исключительно на данных, полученных в результате автоматизированной обработки: ИИ может сравнивать, подсвечивать и предлагать, но итоговое решение должно оставаться за человеком, особенно если у него есть последствия для сотрудника.

"Отдельный блок рисков связан с безопасностью. Самая частая угроза при интеграции с внешними сервисами или облачными решениями — утечки персональных данных и использование информации для дообучения моделей без информированного согласия, отметил эксперт. Это грозит штрафами, репутационными потерями и падением доверия со стороны кандидатов. Кроме того, есть риск алгоритмической дискриминации, когда модель воспроизводит предвзятости исторических данных", — отметил Масланов.

Так, если раньше компания реже нанимала женщин на технические роли или людей старше 45 лет, алгоритм может "научиться" занижать оценку таких профилей, предупредил эксперт, добавив, что это конфликтует с запретом дискриминации при приеме на работу (ст. 3 ТК РФ) и сужает воронку талантов.

Чтобы снизить риски, Масланов рекомендовал сохранять участие человека в принятии решений, регулярно аудировать модели и исключать из обучения чувствительные признаки.

 

Ссылка на первоисточник
наверх