Могут ли алгоритмы найма на основе технологий воспроизводить квирфобные отклонения под нейтральным фасадом?
Алгоритмы найма на основе технологий предназначены для анализа данных о соискателях и сопоставления их с вакансиями. Они стремятся сделать процесс найма более эффективным и менее подверженным человеческим ошибкам, таким как неосознанная предвзятость.
Однако у них могут быть некоторые ограничения, которые могут привести к воспроизведению квирфобных предубеждений под нейтральным фасадом. В этой статье мы рассмотрим, как происходят такие предубеждения, их влияние на людей ЛГБТК + и способы их смягчения.
Как работают технологические алгоритмы найма
Технологические алгоритмы найма используют методы науки о данных для анализа больших наборов данных. Они извлекают соответствующие функции из резюме и приложений, определяют шаблоны и сопоставляют их с требованиями к работе. Алгоритмы оценивают навыки, опыт, образование и другие факторы, которые помогают прогнозировать эффективность работы. Они также сравнивают кандидатов друг с другом на основе этих критериев.
Квирфобия в рекрутинге
Квирфобия относится к дискриминации или предрассудкам в отношении людей, которые идентифицируют себя как лесбиянки, геи, бисексуалы, трансгендеры или небинарные. Это активная форма угнетения, которая затрагивает все стороны жизни, включая возможности трудоустройства. Согласно недавним исследованиям, квирфобные отношения преобладают среди гетеросексуальных работников и менеджеров, что приведет к снижению заработной платы и сокращению количества рекламных акций для сотрудников ЛГБТК +.
Например, 38% работников ЛГБТК + сообщили, что в 2019 году они сталкивались с дискриминацией на рабочем месте по признаку сексуальной ориентации или гендерной идентичности.
Воспроизведение квирфобных предубеждений под нейтральным фасадом
Технологические алгоритмы найма могут воспроизводить квирфобные предубеждения, сосредотачиваясь на нерелевантных характеристиках или отдавая предпочтение определенным группам по сравнению с другими.
Например, они могут придать больший вес традиционным мужским или женским чертам, таким как лидерство или командная работа, которые связаны с гетеронормативностью. Эти предубеждения встраиваются в процесс обучения алгоритма, усиливаются предыдущими сотрудниками и тиражируются по различным отраслям.
Влияние на ЛГБТК + лиц
Воспроизведение квирфобных предубеждений под нейтральным фасадом имеет значительные последствия для ЛГБТК + лиц, ищущих работу. Они сталкиваются с более серьезными препятствиями в поиске работы, повышении в должности и продвижении по карьерной лестнице. Это приводит к повышению уровня безработицы и неполной занятости, росту стресса и снижению удовлетворенности работой. Влияние еще хуже для подгрупп меньшинств в сообществе ЛГБТК +, таких как трансгендерные люди или люди, живущие с ВИЧ/СПИДом.
Смягчение квирфобной предвзятости
Чтобы смягчить квирфобную предвзятость в алгоритмах найма на основе технологий, организации должны предпринять активные шаги:
- Проверьте дизайн алгоритма и убедитесь, что он не увековечивает стереотипы и не благоприятствует определенным демографическим характеристикам.
- Включите метрики разнообразия в процесс найма, включая сексуальную ориентацию и гендерную идентичность.
- Обучайте менеджеров и рекрутеров распознавать неявные предубеждения и активно противодействовать им.
- Сотрудничайте с группами защиты интересов ЛГБТК + для выявления передового опыта и содействия инклюзивности.
Технологические алгоритмы найма могут помочь компаниям принимать более обоснованные решения о кандидатах.
Однако, они нуждаются в тщательном проектировании и мониторинге, чтобы избежать воспроизведения квирфобных предубеждений, которые непропорционально влияют на маргинальные сообщества. Решая эти проблемы, мы можем создать более справедливое рабочее место, где все сотрудники процветают на основе своих навыков и вклада.
Могут ли алгоритмы найма на основе технологий воспроизводить квирфобные предубеждения под нейтральным фасадом?
Технологические алгоритмы найма могут быть разработаны для уменьшения квирфобных предубеждений, возникающих в результате человеческих предрассудков и стереотипов, но они не всегда могут преуспеть в этом. Эти системы полагаются на данные для принятия решений о кандидатах, и если эти данные будут предвзятыми, это увековечит эти предубеждения в их процессах принятия решений.