beta.expert.ru — Новый «Эксперт»: загляните в будущее сайта
Интервью

Почему ИИ «сломал» HR-сферу

Сбои в процессах и ком этических проблем вместо ожидаемого чуда

Валентин Ульянов
Валентин Ульянов
Инженер-программист и автор опенсорс-проекта Mlut
Ожидания от внедрения ИИ-инструментов не всегда похожи на реальность, и HR — один из примеров. Рекрутёры ожидают, что ИИ поможет быстро подбирать лучших из лучших, а кандидаты — что подбор идеальной работы будет полностью автоматизирован. По факту, ИИ-решения скорее ломают рекрутинг, и создают ряд этических проблем.

Тысячи фальшивых кандидатов

Инструменты на базе машинного обучения (то, что сейчас принято называть ИИ) существовали и ранее, а нынешний ИИ-бум связан с популяризацией ИИ-ассистентов. Они понимают человеческий язык и могут работать с текстом, фотографиями, видео и голосом. Но они не только стали полезными советчиками, но и источником злоупотреблений.

Статистически значимая часть соискателей всегда жульничает в процессе поиска работы, приукрашая свои знания, опыт и достижения, а ИИ-ассистенты сделали обман более удобным. Используя незамысловатые промпты, кандидаты могут создавать сотни «идеальных» резюме и сопроводительных писем под конкретные вакансии, а затем затем жульничать на собеседовании, подглядывая в ответы чат-бота. На фоне повсеместного перехода найма и работы в онлайн, вводить рекрутёра в заблуждение стало просто.

Рекрутеры тонут в откликах, из которых 50–80% могут быть спамом, фейковыми или нерелевантными аккаунтами, которые не отвечают потребностям компании.

ИИ-расист

Российский опыт с ИИ-инструментами в HR-сфере немного отличается от подробно изученного европейского или американского, потому что разнятся приоритеты HR-команд. Мировая HR-практика построена вокруг поиска лучших из лучших и потому оказалась не готова к потоку идеальных резюме, сгенерированных ИИ. В России же кадровая сфера заточена под подбор адекватных кандидатов на конкретные должности (но легче от этого не становится).

Логика ИИ-помощников сильно зависит от материалов, на которых они были обучены — и это проблема. Например, на основе реальных данных из прошлого ИИ может отдавать приоритет кандидатам определенной национальности или пола, что во многих странах может подвести компанию под большие штрафы за дискриминацию. В России (в силу обширной географии) частая проблема — занижение рейтинга кандидатов, проживающих вне столицы. Причина та же: человеческие стереотипы влияют на практику, а та служит базой длоя обучения ИИ. Так ИИ-ассистенты учатся у человека плохому.

Инструменты на основе машинного обучения использовались в HR задолго до бума чатботов. И их предвзятость — не новость, а хорошо изученная тема. ИИ-помощники, которые анализируют внешность, манеру речи и письма кандидатов, нередко находят «корреляции» там, где их нет. Причины кроются в датасетах, на которых обучены модели, и их настройке.

ИИ-дискриминация

Обычно HR-специалисты, работающие с досками вакансий, могут тонко настроить фильтры под себя. Предполагалось, что ИИ-инструменты снимут с них эту рутинную задачу. На практике же новая технология оказалась «черным ящиком», который часто фильтрует кандидатов на основе одному ему известным корреляциям.

Сложилась ситуация, когда кандидаты используют ИИ-ассистентов, чтобы генерировать резюме, заточенные под предпочтения ИИ-рекрутеров. Приоритет в этой гонке вооружений получили соискатели с резюме, заточенными под ИИ-отбор.

Это значит, что перспективный кандидат с разнообразным опытом или ценными гибкими навыками может просто не пройти отсев. Доверять «рассуждениям» ИИ-моделей сложно из-за их склонности к «галлюцинациям» и способности убедительно врать пользователям.

Дегуманизация ИИ-найма

Одна из проблем, производных от широкого использования ИИ в рекрутинге — дегуманизация процесса. Кейсы наподобие массовых асинхронных интервью с ИИ-рекрутерами стали объектом критики за непрозрачность, сомнительную объективность и вероятную неэтичность. Часто кандидаты отказываются от продолжения общения, когда понимают, что их собеседник — не человек, а бот. Сколько таких — загадка, подсчетов никто не ведет.

Инвазивный мониторинг

ИИ используются не только в найме, но и помогают HR-командам следить за продуктивностью и замечать признаки профессионального выгорания. Но бывает, что реализация хромает, и инструменты мониторинга оказываются инвазивными: они пристально следят за всем, что делает сотрудник, изучают переписку в рабочих чатах. Плохо и то, что такие системы не всегда объективно оценивают продуктивность человека и могут «галлюцинировать» — приходить к выводам, явно не соответствующим действительности. Если ИИ-мониторинг некомфортен для сотрудников, и те ему не доверяют, это негативно скажется на продуктивности — хотя цель внедрения была противоположной.

Что делать дальше

Парадокс HR в том, что попытки оптимизировать процессы средствами ИИ нередко дают результат противоположный ожидаемому. ИИ-помощники несовершенны и не всегда предлагают здравые решения, а уставшие HR-специалисты часто визируют их, не перепроверяя информацию за роботом. Чем меньше в Human Resources, собственно, человека, тем выше риски.

И решение существующих проблем, опять же, в человеке, а не технологиях. Компаниям следует ограниченно использовать ИИ-решения там, где они действительно могут помочь с автоматизацией рутинных процессов и избегать «универсальных» решений, которые обещают заменить человеческий труд — себе дороже. Приоритет следует отдавать не мониторингу сотрудников при помощи ИИ, а контролю ИИ на основе обратной связи от сотрудников. Технология слишком несовершенна, чтобы отдавать ей приоритет перед человеком.

Больше новостей читайте в нашем телеграм-канале @expert_mag

Материалы по теме:
Аналитика, 3 янв 12:00
Почему в России work-life баланс — это миф, а спрос на подработку будет расти
Аналитика, 8 дек 17:55
Внедрение перешло от пилотов к измеримому эффекту
Свежие материалы