Тысячи фальшивых кандидатов
Инструменты на базе машинного обучения (то, что сейчас принято называть ИИ) существовали и ранее, а нынешний ИИ-бум связан с популяризацией ИИ-ассистентов. Они понимают человеческий язык и могут работать с текстом, фотографиями, видео и голосом. Но они не только стали полезными советчиками, но и источником злоупотреблений.
Статистически значимая часть соискателей всегда жульничает в процессе поиска работы, приукрашая свои знания, опыт и достижения, а ИИ-ассистенты сделали обман более удобным. Используя незамысловатые промпты, кандидаты могут создавать сотни «идеальных» резюме и сопроводительных писем под конкретные вакансии, а затем затем жульничать на собеседовании, подглядывая в ответы чат-бота. На фоне повсеместного перехода найма и работы в онлайн, вводить рекрутёра в заблуждение стало просто.
Рекрутеры тонут в откликах, из которых 50–80% могут быть спамом, фейковыми или нерелевантными аккаунтами, которые не отвечают потребностям компании.
ИИ-расист
Российский опыт с ИИ-инструментами в HR-сфере немного отличается от подробно изученного европейского или американского, потому что разнятся приоритеты HR-команд. Мировая HR-практика построена вокруг поиска лучших из лучших и потому оказалась не готова к потоку идеальных резюме, сгенерированных ИИ. В России же кадровая сфера заточена под подбор адекватных кандидатов на конкретные должности (но легче от этого не становится).
Логика ИИ-помощников сильно зависит от материалов, на которых они были обучены — и это проблема. Например, на основе реальных данных из прошлого ИИ может отдавать приоритет кандидатам определенной национальности или пола, что во многих странах может подвести компанию под большие штрафы за дискриминацию. В России (в силу обширной географии) частая проблема — занижение рейтинга кандидатов, проживающих вне столицы. Причина та же: человеческие стереотипы влияют на практику, а та служит базой длоя обучения ИИ. Так ИИ-ассистенты учатся у человека плохому.
Инструменты на основе машинного обучения использовались в HR задолго до бума чатботов. И их предвзятость — не новость, а хорошо изученная тема. ИИ-помощники, которые анализируют внешность, манеру речи и письма кандидатов, нередко находят «корреляции» там, где их нет. Причины кроются в датасетах, на которых обучены модели, и их настройке.
ИИ-дискриминация
Обычно HR-специалисты, работающие с досками вакансий, могут тонко настроить фильтры под себя. Предполагалось, что ИИ-инструменты снимут с них эту рутинную задачу. На практике же новая технология оказалась «черным ящиком», который часто фильтрует кандидатов на основе одному ему известным корреляциям.
Сложилась ситуация, когда кандидаты используют ИИ-ассистентов, чтобы генерировать резюме, заточенные под предпочтения ИИ-рекрутеров. Приоритет в этой гонке вооружений получили соискатели с резюме, заточенными под ИИ-отбор.
Это значит, что перспективный кандидат с разнообразным опытом или ценными гибкими навыками может просто не пройти отсев. Доверять «рассуждениям» ИИ-моделей сложно из-за их склонности к «галлюцинациям» и способности убедительно врать пользователям.
Дегуманизация ИИ-найма
Одна из проблем, производных от широкого использования ИИ в рекрутинге — дегуманизация процесса. Кейсы наподобие массовых асинхронных интервью с ИИ-рекрутерами стали объектом критики за непрозрачность, сомнительную объективность и вероятную неэтичность. Часто кандидаты отказываются от продолжения общения, когда понимают, что их собеседник — не человек, а бот. Сколько таких — загадка, подсчетов никто не ведет.
Инвазивный мониторинг
ИИ используются не только в найме, но и помогают HR-командам следить за продуктивностью и замечать признаки профессионального выгорания. Но бывает, что реализация хромает, и инструменты мониторинга оказываются инвазивными: они пристально следят за всем, что делает сотрудник, изучают переписку в рабочих чатах. Плохо и то, что такие системы не всегда объективно оценивают продуктивность человека и могут «галлюцинировать» — приходить к выводам, явно не соответствующим действительности. Если ИИ-мониторинг некомфортен для сотрудников, и те ему не доверяют, это негативно скажется на продуктивности — хотя цель внедрения была противоположной.
Что делать дальше
Парадокс HR в том, что попытки оптимизировать процессы средствами ИИ нередко дают результат противоположный ожидаемому. ИИ-помощники несовершенны и не всегда предлагают здравые решения, а уставшие HR-специалисты часто визируют их, не перепроверяя информацию за роботом. Чем меньше в Human Resources, собственно, человека, тем выше риски.
И решение существующих проблем, опять же, в человеке, а не технологиях. Компаниям следует ограниченно использовать ИИ-решения там, где они действительно могут помочь с автоматизацией рутинных процессов и избегать «универсальных» решений, которые обещают заменить человеческий труд — себе дороже. Приоритет следует отдавать не мониторингу сотрудников при помощи ИИ, а контролю ИИ на основе обратной связи от сотрудников. Технология слишком несовершенна, чтобы отдавать ей приоритет перед человеком.
Больше новостей читайте в нашем телеграм-канале @expert_mag