AI peut être utilisé pour automatiser les tâches nécessitant le traitement du langage naturel (NLP), comme les chatbots pour le support client. Ces chatbots sont souvent formés à l'aide d'ensembles de données contenant une grande quantité de données provenant de différentes sources, y compris des posts sur les réseaux sociaux et des forums en ligne où les gens discutent de leurs expériences en matière d'identité de genre. Lorsque cela se produit, l'IA peut involontairement reproduire des idées fausses ou même des stéréotypes nuisibles sur les personnes transgenres. En effet, les algorithmes qui gèrent ces systèmes s'appuient sur les modèles qu'ils trouvent dans les données d'apprentissage et peuvent éventuellement amplifier ces préjugés sans s'en rendre compte.
Par exemple, si un ensemble de données contient des commentaires négatifs sur l'apparence des personnes transgenres, cela pourrait conduire le chatbot à faire des remarques péjoratives lors de la communication avec elles. De même, si l'ensemble de données comprend un langage obsolète ou des hypothèses sur les rôles de genre, le chatbot peut tirer des conclusions ou des jugements erronés sur la base de ces préjugés. Une autre façon dont l'IA peut perpétuer le malentendu autour de l'identité de genre est la reconnaissance visuelle. Le logiciel de reconnaissance faciale est connu pour lutter contre l'identification des visages non binaires en raison de l'absence de données d'apprentissage complètes sur l'expression sexuelle, en plus des variantes binaires mâles/femelles. Cela peut conduire à des pratiques exceptionnelles, comme obliger les gens à utiliser leurs noms légitimes au lieu de leurs pronoms préférés, ce qui peut invalider leur identité.
En outre, la technologie de reconnaissance faciale est généralement utilisée dans des mesures de sécurité telles que la vérification à l'aéroport, ce qui peut entraîner une discrimination contre les personnes qui ne correspondent pas aux conceptions traditionnelles de la virilité ou de la féminité. Le problème va au-delà des systèmes d'IA. Dans certains cas, les développeurs d'IA eux-mêmes peuvent avoir une inclinaison inconsciente vers certains sexes, ce qui les amène à développer des produits qui renforcent la dynamique de pouvoir existante dans la société. Ce ne sont là que quelques exemples de la façon dont l'IA peut contribuer involontairement au sexisme et à la cysnormativité. Pour lutter contre ce problème, il est important que les entreprises qui développent des outils d'IA gardent à l'esprit leur impact potentiel sur les groupes marginalisés et veillent à ce que toutes les voix soient entendues au cours du processus de développement. Les développeurs doivent également travailler en étroite collaboration avec des experts de communautés sous-représentées qui peuvent donner un aperçu de tous les principaux problèmes à résoudre avant de lancer de nouveaux produits.
Dans l'ensemble, même si l'IA offre de nombreuses possibilités d'innovation, nous devons rester vigilants sans lui permettre de renforcer les stéréotypes nuisibles liés à l'identité de genre.
Comment l'IA peut-elle involontairement reproduire des préjugés ou des malentendus concernant l'identité de genre ?
L'utilisation de l'intelligence artificielle (IA) peut potentiellement conduire à perpétuer des préjugés et des idées fausses sur l'identité de genre parce qu'elle est influencée par les données utilisées pour son apprentissage. Ces données peuvent refléter des préjugés à l'égard de l'identité de genre, ce qui peut amener le système de l'IA à reproduire ces préjugés dans le processus décisionnel.