Lors de l'examen des préjugés potentiels dans les systèmes d'intelligence artificielle (IA), il est important de prendre en compte ceux qui peuvent affecter les personnes qui s'identifient comme lesbiennes, gays, bisexuelles, transgenres et queer/questions (LGBTQ +). Ces préjugés peuvent avoir de graves répercussions sur leur sécurité, leur vie privée, leur accès aux soins de santé, leurs possibilités d'emploi, etc.
Cependant, il existe plusieurs mécanismes pour détecter, atténuer et empêcher la perpétuation de ces préjugés dans les systèmes d'IA. Dans cet article, j'explore l'efficacité de ces mécanismes dans la pratique.
L'un des mécanismes de détection des préjugés de l'IA à l'égard des populations LGBT est l'audit. Il s'agit de vérifier le code de l'algorithme et les sources de données pour voir s'ils reflètent la diversité de la population qu'ils sont censés servir.
Par exemple, une société qui développe une application de rencontre en ligne peut engager un consultant indépendant pour évaluer si ses algorithmes incluent des termes liés à l'identité de genre ou à l'orientation sexuelle qui peuvent exclure certains utilisateurs. Si tel était le cas, le consultant recommanderait de modifier l'algorithme pour le rendre plus inclusif. Une autre méthode de détection consiste à tester avec différents groupes. Une étude publiée dans Nature montre comment une équipe de chercheurs a testé un modèle de classification d'images utilisant des traits faciaux et a découvert qu'elle faisait des prédictions inexactes sur l'orientation sexuelle sur la base de stéréotypes tels que des barbes ou des boucles d'oreilles. Les résultats ont incité les chercheurs à reclasser le modèle avec un ensemble de données plus vaste et plus représentatif.
Une autre approche pour résoudre le problème du biais de l'IA consiste à analyser l'équité. Il s'agit notamment de mesurer l'impact d'un processus décisionnel particulier sur les différentes populations. Une étude menée par ProPublica a montré que le système de recrutement Amazon est moins susceptible de sélectionner des candidates parce qu'il préfère les CV qui ont le mot « exécutif » à ceux qui n'en ont pas. En analysant le processus décisionnel, l'étude a révélé des préjugés potentiels à l'égard des femmes. En conséquence, Amazon a mis à jour son système en supprimant le terme « exécutif ». L'analyse de l'équité peut également servir à déterminer les préjugés dans d'autres domaines, comme la justice pénale, les soins de santé et le logement.
Pour atténuer le biais de l'IA, l'une des stratégies est d'utiliser des explications contrefactiques. Ils expliquent pourquoi une décision spécifique a été prise et proposent des solutions de rechange qui auraient pu aboutir à un résultat différent.
Par exemple, si un prêteur hypothécaire utilise l'IA pour déterminer la solvabilité, il doit fournir des explications sur les décisions qui ne sont pas favorables aux demandeurs LGBT.
Par exemple, une explication contrefactique pourrait se lire: « Si votre revenu était supérieur de 500 $, vous auriez droit à ce crédit ». Une autre stratégie consiste à mettre en oeuvre des contraintes sur les données d'entrée et les paramètres algorithmiques.
Par exemple, la banque peut limiter l'utilisation d'un langage spécifique au sexe dans la détermination du droit de prêt.
En outre, il existe plusieurs mesures que les entreprises peuvent prendre pour prévenir en premier lieu les biais de l'IA. L'une des approches consiste à recueillir des informations démographiques sur ses utilisateurs ou clients. Des entreprises comme Google et Facebook exigent de leurs développeurs qu'ils tiennent compte de la diversité dans le développement de produits, ce qui permet de s'assurer que leurs systèmes n'excluent pas involontairement certains groupes. Une autre stratégie consiste à utiliser divers ensembles de données pendant l'apprentissage du modèle pour réduire le risque de stéréotypes.
Enfin, les entreprises peuvent intégrer des lignes directrices éthiques dans leurs processus de développement de l'IA afin d'assurer l'équité et la transparence tout au long du processus.
Bien que ces mécanismes existent pour détecter, atténuer et prévenir les biais d'IA à l'égard des populations LGBT, leur efficacité dépend de plusieurs facteurs. Certaines études suggèrent que l'audit en lui-même ne peut éliminer complètement toutes les formes de discrimination, car les préjugés peuvent être subtils et difficiles à définir. D'autres études indiquent que l'audit peut être utile, mais qu'il faut de l'expérience en apprentissage automatique et en justice sociale pour être efficace. Les explications contrefactiques ne peuvent pas toujours être précises ou complètes, et les restrictions peuvent entraîner de nouveaux risques si elles sont trop restrictives. L'inclusion dans le processus de conception peut également nécessiter des ressources et du personnel qui comprennent comment différentes identités se recoupent avec la technologie.
Dans l'ensemble, des efforts soutenus des dirigeants de l'industrie, des politiciens et des groupes de défense des intérêts seront nécessaires pour garantir que les systèmes d'IA servent tous de manière égale et équitable.
Quels sont les mécanismes en place pour détecter, atténuer et prévenir les biais d'IA à l'égard des populations LGBT et dans quelle mesure sont-ils efficaces dans la pratique ?
Malgré la reconnaissance croissante des communautés lesbiennes, gays, bisexuelles, transgenres (LGBT), il existe encore des préjugés en matière d'intelligence artificielle (IA). Ces préjugés se manifestent comme des préjugés fondés sur l'identité de genre, l'orientation sexuelle, la race, l'âge, l'ethnicité, la religion, l'apparence, etc., qui peuvent être incorporés dans les données d'apprentissage utilisées pour enseigner les algorithmes. Différents chercheurs ont proposé différents mécanismes pour résoudre le problème du biais de l'IA à l'égard des populations LGBT.