Logo

ZeroOpposite

Contact Us
Search

SEXUALITÉ ET IDENTITÉ DE GENRE : COMMENT LES SYSTÈMES AI PEUVENT PAR INADVERTANCE PERPÉTUER DES STÉRÉOTYPES NUISIBLES frEN IT DE PL PT RU AR JA CN ES

L'identité de genre est un concept qui se réfère au sentiment intérieur de l'individu d'être un homme, une femme, ni les deux. Il s'agit de comprendre leur expression de genre, qui inclut la façon dont ils se présentent physiquement et de manière comportementale.

Cependant, il existe diverses idées fausses et malentendues liées à ce sujet, en particulier quand il s'agit de l'intelligence artificielle de la technologie (IA).

L'un de ces malentendus est que les systèmes d'IA peuvent définir avec précision l'identité de genre en se fondant uniquement sur des attributs physiques tels que la taille, le poids, la couleur des cheveux et la hauteur de la voix. Cette hypothèse peut entraîner des biais involontaires dans les données utilisées pour l'apprentissage de ces systèmes, conduisant à une discrimination contre les personnes qui ne s'inscrivent pas dans les rôles traditionnels du genre.

Par exemple, les personnes transgenres peuvent être mal classées en raison d'incohérences entre leur sexe perçu et leur sexe désigné, ce qui a des conséquences négatives, telles que le refus de services de santé ou de possibilités d'emploi.

Un autre problème vient des algorithmes d'IA conçus pour analyser les expressions faciales et le langage corporel pour les réactions émotionnelles pendant les moments intimes. Ces systèmes peuvent interpréter le comportement différemment selon les normes culturelles, ce qui renforce les stéréotypes nuisibles sur les femmes qui expriment plus d'émotions que les hommes lors des relations sexuelles. De telles conclusions peuvent conduire à un diagnostic erroné d'un état de santé mentale ou à une évaluation inexacte du consentement dans des situations intimes.

En outre, certains chatbots à intelligence artificielle utilisent le traitement du langage naturel pour comprendre les demandes des utilisateurs et répondre correctement. Si ces bots sont programmés avec des termes sexospécifiques obsolètes, ils peuvent générer des réponses insensibles ou offensantes, perpétuant les préjugés sociaux existants.

En outre, les chatbots peuvent ne pas être conscients de l'identité non binaire et ne pas fournir d'options inclusives, ce qui exclut une grande partie de la population.

Pour résoudre ces problèmes, les chercheurs devraient mettre au point des technologies d'IA qui tiennent compte des différentes perspectives et expériences en matière d'identité de genre. Ils devraient également tenir compte de l'impact de l'utilisation des ensembles de données historiques dans la création de nouveaux modèles et tenir compte des commentaires des communautés LGBTQ +. En faisant cela, nous pouvons nous assurer que notre technologie reflète exactement l'évolution de la compréhension de la société de l'identité de genre et crée des espaces sûrs pour tous les êtres humains afin d'explorer leur véritable « soi ».

Comment les technologies d'intelligence artificielle peuvent-elles, par inadvertance, accroître les préjugés sociaux ou les malentendus à l'égard de l'identité de genre ?

L'un des moyens possibles de renforcer involontairement les préjugés sociaux ou les malentendus concernant l'identité de genre par les technologies de l'intelligence artificielle est leur capacité à apprendre des modèles dans les données. Si les données d'apprentissage utilisées pour créer ces systèmes comportent des exemples de stéréotypes ou de préjugés sexistes, les modèles obtenus peuvent perpétuer ces préjugés et non les défier.