Les algorithmes de recrutement basés sur la technologie peuvent-ils reproduire les écarts quirphobes sous une façade neutre?
Les algorithmes de recrutement basés sur la technologie sont conçus pour analyser les données sur les candidats et les comparer aux postes vacants. Ils cherchent à rendre le processus de recrutement plus efficace et moins susceptible d'erreurs humaines, comme les préjugés inconscients.
Cependant, ils peuvent avoir certaines restrictions qui peuvent conduire à la reproduction des préjugés quirphobes sous la façade neutre. Dans cet article, nous examinerons comment de tels préjugés se produisent, leur impact sur les personnes LGBTQ + et comment les atténuer.
Comment fonctionnent les algorithmes technologiques de recrutement
Les algorithmes technologiques de recrutement utilisent les méthodes de la science des données pour analyser de grands ensembles de données. Ils extraient les fonctions pertinentes des CV et des applications, identifiaient les modèles et les comparaient aux exigences de travail. Les algorithmes évaluent les compétences, l'expérience, l'éducation et d'autres facteurs qui aident à prédire l'efficacité du travail. Ils comparent également les candidats les uns aux autres sur la base de ces critères.
Quirphobie dans le recrutement
Quirphobie se réfère à la discrimination ou aux préjugés contre les personnes qui s'identifient comme lesbiennes, gays, bisexuelles, transgenres ou non binaires. C'est une forme active d'oppression qui affecte tous les aspects de la vie, y compris les possibilités d'emploi. Selon des études récentes, les relations quirfobes prédominent chez les travailleurs et les gestionnaires hétérosexuels, ce qui entraînerait une baisse des salaires et une réduction du nombre de promotions pour les employés LGBTQ +.
Par exemple, 38 % des travailleurs LGBTQ + ont déclaré avoir été victimes de discrimination sur le lieu de travail en raison de leur orientation sexuelle ou de leur identité de genre en 2019.
Reproduction de préjugés quirphobes sous une façade neutre
Les algorithmes technologiques de recrutement peuvent reproduire des préjugés quirphobes en se concentrant sur des caractéristiques non pertinentes ou en privilégiant certains groupes par rapport à d'autres.
Par exemple, ils peuvent donner plus de poids aux traits traditionnels masculins ou féminins, tels que le leadership ou le travail d'équipe, qui sont liés à l'hétéronormativité. Ces préjugés sont intégrés dans le processus d'apprentissage de l'algorithme, renforcés par les employés précédents et reproduits dans différents secteurs.
L'influence sur les personnes LGBTQ +
La reproduction de préjugés quirfobes sous une façade neutre a des conséquences importantes pour les personnes LGBTQ +. Ils se heurtent à des obstacles plus importants dans la recherche d'un emploi, la promotion et la promotion de carrière. Il en résulte une augmentation du chômage et du sous-emploi, une augmentation du stress et une baisse de la satisfaction au travail. L'impact est encore pire pour les sous-groupes minoritaires de la communauté LGBTQ +, comme les personnes transgenres ou les personnes vivant avec le VIH/sida.
Atténuer le biais quirphobique
Pour atténuer le biais quirphobique dans les algorithmes de recrutement basés sur la technologie, les organisations doivent prendre des mesures actives:
- Vérifiez la conception de l'algorithme et assurez-vous qu'il ne perpétue pas les stéréotypes et ne favorise pas certaines caractéristiques démographiques.
- Inclure des mesures de diversité dans le processus de recrutement, y compris l'orientation sexuelle et l'identité de genre.
- Former les gestionnaires et les recruteurs à reconnaître les préjugés implicites et à les combattre activement.
- Collaborer avec les groupes de défense des intérêts LGBTQ + pour identifier les meilleures pratiques et promouvoir l'inclusion.
Les algorithmes technologiques de recrutement peuvent aider les entreprises à prendre des décisions plus éclairées sur les candidats.
Cependant, ils doivent être soigneusement conçus et surveillés pour éviter de reproduire les préjugés quirphobes qui affectent de manière disproportionnée les communautés marginales. En résolvant ces problèmes, nous pouvons créer un milieu de travail plus équitable où tous les employés prospèrent grâce à leurs compétences et à leurs contributions.
Les algorithmes de recrutement basés sur la technologie peuvent-ils reproduire des préjugés quirphobes sous une façade neutre ?
Les algorithmes de recrutement technologique peuvent être conçus pour réduire les préjugés quirphobes résultant des préjugés et stéréotypes humains, mais ils ne peuvent pas toujours réussir. Ces systèmes reposent sur des données pour prendre des décisions concernant les candidats et, si ces données sont biaisées, elles perpétueront ces préjugés dans leurs processus décisionnels.