Хорошая статья о том, как ИИ рассматривает резюме кандидатов на работу.
Сегодня во многих крупных компаниях программное обеспечение определяет, какие заявки вообще будут просматриваться менеджерами по персоналу. Эти системы сканируют резюме на наличие ключевых слов, сравнивают карьерные пути со статистическими профилями успеха и присваивают баллы соответствия. Любой кандидат, чей балл не соответствует определенному порогу, отсеивается, независимо от того, действительно ли ему не хватает квалификации, мотивации или потенциала.
Это не исключение, а стандартная практика в международных корпорациях, платформенных компаниях и, все чаще, в средних предприятиях. Заявитель об этом не знает. Он не знает, что его заявку никто не читал. Он не знает, почему его отклонили. Он знает только: очередной отказ.
Один из самых ранних и поучительных примеров — компания Amazon. Она потратила годы на разработку системы искусственного интеллекта для автоматизированной оценки кандидатов. Система обучалась на основе предыдущих решений о найме. Результат: женщины систематически получали более низкие оценки. Резюме, в которых указывалось участие в программах продвижения женщин или в мероприятиях, где преобладают женщины, отклонялись.
В США был подан иск против поставщика программного обеспечения для управления персоналом «Workday». Заявители обвинили компанию в систематической дискриминации пожилых людей, людей с ограниченными возможностями и представителей этнических меньшинств посредством предварительного отбора на основе искусственного интеллекта.
Ключевой момент заключается не только в обвинении, но и в лежащей в его основе структуре. Компания Workday утверждала, что она лишь предоставляла программное обеспечение; решение принимал клиент. Компании, в свою очередь, указывали на сам инструмент. Никто не чувствовал себя ответственным.
Именно в этом и заключается новое качество несправедливости: дискриминация без дискриминаторов. Нет ни HR-менеджера, ни социального работника, нет четкого решения. Просто система, которая «рекомендует».
Использование ИИ в видеоинтервью оказалось особенно проблематичным. Такие сервисы, как HireVue, обещали делать выводы о личности, стрессоустойчивости и мотивации на основе выражения лица, речи и жестов. Кандидатов анализировали перед камерой, рассчитывали баллы и создавали рейтинги.
Критики с самого начала предупреждали: эти системы измеряют не соответствие требованиям, а скорее отклонение от норм. Люди с акцентом, нейроразличия или кандидаты с инвалидностью систематически оказывались в невыгодном положении. Технология предполагала объективность, но основывалась на сомнительных представлениях о том, как должны выглядеть и звучать «подходящие» люди.
В повседневной жизни все чаще проявляется особенно коварный эффект: приложения, созданные с использованием ИИ, лучше подходят для процессов отбора, поддерживаемых ИИ. Их структура, формулировки и логика точно соответствуют ожиданиям системы.
Это приводит к парадоксальной ситуации: успех определяется не квалификацией, а адаптацией к ожиданиям машины.
#ии
Приглашаю также подписаться на мой блог в МАХ!
https://max.ru/ctotoznayu