Hitech logo

Искусственный интеллект

Чатбот PredictiveHire предсказывает опасность соискателя для фирмы

TODO:
Георгий Голованов28 июля 2020 г., 08:04

После интервью с чатботом работодатель может узнать психологические характеристики потенциального сотрудника и то, с какой вероятностью он уволится, если ему что-то не понравится. Такие инструменты — еще один способ дискриминации и механизм сокращения зарплат, считают исследователи, изучающие практику использования искусственного интеллекта в работе кадровых служб.  

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Австралийская компания PredictiveHire, основанная в 2013, предлагает воспользоваться услугами чатбота, который проводит собеседование с кандидатами. Пользователям гарантируется высокая скорость работы и отсутствие дискриминации и предвзятости. Клиенты компании — кадровики, вынужденные постоянно заниматься подбором сотрудников для сферы торговли, в колл-центры и медучреждения.

Чатбот задает соискателям пять — семь открытых вопросов (то есть без вариантов ответов) о прошлом опыте работы и составляет на основании ответов их психологический портрет. ИИ оценивает открытость новому, практичность и здравый смысл кандидата, и на основании этих данных делает вывод о том, с какой вероятностью работник уволится вскоре после найма, рассказывает MIT Technology Review.

«Сохранение сотрудников — важная проблема для многих компаний, с которыми мы работаем, принимая во внимание, что издержки на текучку кадров составляют 16% от зарплаты каждого работника», — пояснила Барбара Хайман, глава PredictiveHire.

С начала пандемии многие компании начали использовать услуги искусственного интеллекта для найма сотрудников. Самые распространенные системы — сканирующие лица алгоритмы, игры, вопросы и прочие методы оценки, помогающие проводить собеседования. И несмотря на то, что ученые и активисты предупреждают, что системы с ИИ могут дискриминировать определенные категории граждан, разработчики, напротив, считают, что алгоритмы помогают бороться с предубеждениями.

Но есть и другие опасности ИИ. Так, в исследовании 2017 года Джон Ньюман из Колледжа криминальной юстиции им. Джона Джея писал, что большие данные могут найти множество способов дискриминировать рабочих и снизить их зарплату. Например, алгоритмы могут вычислять сотрудников, склонных агитировать за вступление в профсоюзы, просматривать их почту, чаты и другие данные, чтобы вычислять минимальную прибавку, которая заставит их не менять место работы.

Прогнозирование вероятности смены работы, по мнению Ньюмана, еще одно проявление того, чем исторически занимались наниматели, чтобы предотвратить рост жалования и подавить активность профсоюзов. А персональные характеристики, которые появились в США в 1930-х, возникли как механизм отсеивания лидеров трудовых союзов.

«Смена работы или угроза смены работы — это один из главных рычагов, позволяющих сотрудникам повысить себе зарплату», — поясняет Солон Барокас, старший исследователь из Microsoft Research, занимающийся вопросами алгоритмической справедливости и прозрачности. Впрочем, он не считает, что ИИ — совершенно непригодный инструмент для кадровых агентств. Цель сделать сферу труда более непредвзятой благородная и достойная, но ее можно будет добиться только если регуляторы станут требовать от разработчиков большей прозрачности алгоритмов.

Год назад в России начала работу международная рекрутинговая чатбот-платформа, предлагающая решения в области HR на основе искусственного интеллекта. Она автоматизирует 84% процесса найма сотрудников.