La technologie de l'intelligence artificielle a changé les méthodes de travail et d'interaction des entreprises avec leurs clients. L'une des applications de l'IA est l'identification sexuelle quand elle peut déterminer si une personne est un homme ou une femme en fonction de son apparence ou de son comportement.
Cependant, on craint que ces systèmes ne renforcent les préjugés sociaux à l'égard de l'identité de genre et des stéréotypes. Cela peut avoir de graves conséquences pour les groupes marginalisés qui sont déjà victimes de discrimination. Cet article examine comment les systèmes d'IA risquent de renforcer les préjugés sociaux en matière d'identification sexuelle et examine les moyens d'atténuer ce problème.
Pour commencer, les algorithmes d'IA reposent sur de grands ensembles de données pour se former. Ces ensembles de données reflètent souvent les préjugés actuels au sein de la société, ce qui signifie qu'ils peuvent les perpétuer dans la catégorisation ou la prévision de l'identité de genre.
Par exemple, un logiciel de reconnaissance faciale qui utilise des images de films et d'émissions de télévision tend à identifier à tort les femmes de couleur comme des hommes en raison de leur représentation limitée dans ces médias. De même, les assistants vocaux qui reconnaissent les schémas vocaux ont tendance à sous-estimer les voix des femmes parce que beaucoup de leurs accents et dialectes ne sont pas inclus dans les données d'apprentissage. En outre, les modèles linguistiques formés à partir des données textuelles utilisées dans les recherches en ligne et les publications sur les médias sociaux montrent également un biais à l'égard des personnes non-binaires.
En outre, les algorithmes d'IA apprennent en détectant des régularités dans les données. Ils utilisent ces modèles pour les prévisions, mais si les données comprennent des informations biaisées, les prévisions seront également biaisées.
Par exemple, un système d'intelligence artificielle conçu pour analyser les demandes d'emploi peut attribuer aux femmes des points inférieurs parce qu'il a été formé à partir de données historiques montrant que les candidats moins qualifiés étaient principalement des hommes. Il en va de même dans d'autres domaines tels que la santé, les finances et l'éducation.
En outre, certains systèmes d'intelligence artificielle peuvent créer de nouvelles formes de discrimination sur la base de l'identité de genre perçue.
Par exemple, un assistant virtuel programmé pour fournir des conseils aux sites de rencontre peut comparer les utilisateurs à des partenaires potentiels en fonction de leur expression de genre plutôt que de leur orientation sexuelle. Cela exclurait les personnes transgenres qui ne correspondent pas aux catégories binaires.
Cependant, il y a des mesures que nous pouvons prendre pour réduire le risque de préjugés sociaux accrus dans les systèmes d'IA. Une approche consiste à s'assurer que les données utilisées pour l'apprentissage des algorithmes d'IA reflètent des perspectives différentes. Les entreprises doivent travailler avec les communautés marginalisées pour recueillir des données plus inclusives et adapter leurs algorithmes en conséquence. Ils doivent également tester leurs systèmes d'IA en utilisant des méthodes telles que la vérification croisée et l'analyse des erreurs pour détecter tout préjugé involontaire.
En outre, les entreprises devraient envisager de mettre en place des mesures de protection telles que des processus de vérification humaine ou de fournir aux utilisateurs des options pour corriger les erreurs d'identification sexuelle.
En conclusion, bien que l'IA ait modifié de nombreuses industries, son application dans l'identification sexuelle soulève des préoccupations quant à la perpétuation des préjugés sociaux existants. En veillant à ce que les données utilisées pour l'apprentissage des algorithmes d'IA reflètent des perspectives différentes, en les testant sur les biais et en créant des mesures de protection, les entreprises peuvent atténuer ce problème et rendre leurs produits accessibles à tous.
Comment les systèmes d'IA risquent-ils de renforcer les préjugés sociaux dans la catégorisation ou la prévision de l'identité de genre ?
Les systèmes d'intelligence artificielle qui s'appuient sur des données provenant de sources humaines peuvent être formés pour reconnaître des attributs spécifiques liés à un sexe particulier, tels que la longueur des cheveux ou le ton de la voix, qui peuvent perpétuer les stéréotypes et les préjugés existants contre certains sexes. De plus, si les renseignements personnels d'une personne sont utilisés dans l'apprentissage de ces algorithmes, ils peuvent refléter des hypothèses désuètes sur les rôles et les identités de genre, ce qui entraîne des prévisions ou des classifications biaisées.