L'IA est de plus en plus utilisée dans de nombreux domaines, y compris la santé, la finance, l'éducation et même le divertissement. Bien que l'IA ait révolutionné ces industries, on craint qu'elle ne perpétue des préjugés à l'égard de certains groupes de personnes. En particulier, les chercheurs craignent que les systèmes d'IA ne discriminent les membres de la communauté lesbienne, gaie, bisexuelle et transgenre (LGBT). Afin de réduire ce risque, divers mécanismes ont été mis au point pour identifier et éliminer les biais dans les systèmes d'IA.
Cependant, on ne sait pas si ces mécanismes sont efficaces dans la pratique.
L'un des mécanismes proposés pour détecter les biais de l'IA à l'égard des populations LGBT est l'audit des données. Cela comprend l'examen des données utilisées pour enseigner le système d'IA et s'assurer qu'il est représentatif de tous les groupes, y compris dans la communauté LGBT. En identifiant les lacunes de l'ensemble de données, les ingénieurs peuvent prendre des mesures pour s'assurer que leurs modèles ne font pas de discrimination à l'égard de sous-groupes particuliers.
Par exemple, si un modèle d'IA est enseigné à l'aide d'images médicales de couples hétérosexuels, mais pas de couples homosexuels, il peut être moins précis dans le diagnostic des maladies chez les personnes LGBT. De même, si le modèle financier utilise des données sur le mariage hétérosexuel mais ignore le mariage gay, il peut sous-estimer les besoins des familles LGBT.
Une autre approche pour réduire le biais de l'IA à l'égard des populations LGBT est l'apprentissage de la justice algorithmique. Il s'agit d'apprendre aux algorithmes d'apprentissage automatique à reconnaître les schémas d'inégalité des données et à ajuster leur prise de décision en conséquence.
Par exemple, un algorithme conçu pour prédire le niveau d'approbation de crédit peut être formé à partir de données historiques montrant que les créanciers sont plus susceptibles de refuser des prêts aux demandeurs noirs et latino-américains que les blancs. En reconnaissant ces schémas, l'algorithme peut apprendre à traiter tous les candidats de manière équitable, quelle que soit leur race ou leur origine ethnique.
Le troisième mécanisme de réduction du biais de l'IA à l'égard des populations LGBT est un examen humain. Dans cette approche, les gens participent au processus d'évaluation du rendement des systèmes d'IA et d'étiquetage de tout cas où ils semblent biaisés.
Par exemple, si le système d'IA recommande systématiquement des options de traitement différentes pour les hommes et les femmes ayant les mêmes maladies, les évaluateurs peuvent intervenir et corriger le problème. L'examen humain peut également aider à identifier et à éliminer d'autres types de préjugés, tels que l'ajisme ou l'abléisme.
Malgré ces mécanismes, il y a des preuves que les systèmes d'IA continuent de discriminer les membres de la communauté LGBT. Une étude récente a révélé que les logiciels de reconnaissance faciale sont plus susceptibles d'identifier à tort les personnes transgenres comme étant de sexe différent que les personnes cisgenres. De même, un rapport du National Institute of Standards and Technology (NIST) a révélé que la technologie de reconnaissance vocale était moins précise pour identifier les voix féminines que les voix masculines. Ces résultats montrent que même les systèmes d'IA les plus modernes peuvent ne pas être à l'abri des préjugés à l'égard de certains groupes.
Dans l'ensemble, bien que des progrès aient été réalisés pour identifier et atténuer les biais de l'IA à l'égard des populations LGBT, il reste beaucoup à faire. Les chercheurs, les ingénieurs et les décideurs doivent continuer à mettre au point de nouvelles méthodes et à assurer la mise en œuvre efficace des méthodes existantes. Ce n'est qu'alors que nous pourrons mettre en place des systèmes d'IA véritablement inclusifs et équitables qui servent tous les membres de la société de façon égale.
Quels sont les mécanismes en place pour détecter et atténuer les biais d'IA à l'égard des populations LGBT et dans quelle mesure sont-ils efficaces dans la pratique ?
Différents outils existent actuellement pour identifier et atténuer les biais de l'IA à l'égard des populations LGBT. L'une des approches les plus populaires est le prétraitement des données, qui implique le nettoyage et le filtrage des ensembles de données pour éliminer toute anomalie potentielle. Une autre approche consiste à utiliser des algorithmes d'apprentissage automatique qui peuvent apprendre à partir d'exemples d'ensembles de données impartiaux. En outre, des méthodes d'apprentissage actives peuvent être utilisées pour identifier les émissions dans un ensemble de données d'apprentissage qui peuvent apporter un biais.