Logo

ZeroOpposite

Contact Us
Search

SURMONTER LE BIAIS ALGORITHMIQUE : LES CRÉATEURS TRANS LUTTENT POUR L'INCLUSION DANS L'ART NUMÉRIQUE frEN IT DE PL TR PT RU AR JA CN ES

Quand il s'agit de créer un art numérique, les personnes transgenres sont souvent confrontées à des problèmes auxquels les artistes non transgenres peuvent ne pas être confrontés. L'un de ces problèmes est le biais algorithmique, qui peut perpétuer les préjugés contre les créateurs trans. Les algorithmes sont utilisés dans de nombreux aspects de la création d'art numérique, de la génération d'images à la recommandation de vidéos.

Cependant, ces algorithmes ne sont pas toujours formés pour reconnaître ou apprécier l'identité trans. En conséquence, les créateurs trans peuvent trouver leurs œuvres sous-représentées ou mal réparties dans les catégories sur Internet. Ce phénomène est connu sous le nom de « biais algorithmique ».

Un exemple de cela est que l'algorithme ne reconnaît pas les personnes trans dans ses recommandations pour le contenu LGBTQ +.

Par exemple, si une personne cisgenre recherche sur Internet des œuvres d'art sur un thème queer, il peut être montré des résultats impliquant exclusivement des personnes cisgenres. Par contre, si un individu trans effectue la même recherche, il peut voir moins d'exemples de représentation trans. Cela peut créer un sentiment d'isolement et d'aliénation pour les artistes trans qui se sentent invisibles dans leur domaine.

Une autre façon dont les algorithmes perpétuent les préjugés contre les créateurs trans est de détecter le sexe. De nombreuses plateformes de médias sociaux s'appuient sur des systèmes automatisés pour déterminer si un profil d'utilisateur doit être classé comme masculin, féminin ou non binaire. Ces systèmes ont été critiqués pour être trop simplifiés et incapables de classer avec précision les personnes trans. Cela peut entraîner des utilisateurs trans mal étiquetés et exclus de certaines communautés ou espaces Internet.

Le problème du biais algorithmique dépasse également le cadre de l'expérience personnelle. La représentation trans dans la culture populaire était historiquement faible par rapport aux identités cisgenres. Il y a donc moins de données disponibles pour que les algorithmes apprennent quand il s'agit de reconnaître des identités trans. Ce manque de données crée un cercle vicieux où les artistes trans peinent à gagner en notoriété et en reconnaissance, ce qui rend difficile leur succès professionnel.

Pour résoudre ces problèmes, certaines plates-formes d'art numérique prennent des mesures pour lutter contre les biais algorithmiques contre les créateurs trans.

Par exemple, Pixar a récemment publié un court métrage avec un protagoniste trans dans le rôle principal intitulé « Out ». Le studio a travaillé en étroite collaboration avec des groupes de défense des droits de l'homme trans pour fournir une image précise de l'identité trans tout au long du projet.

En outre, de nombreux sites d'art numérique permettent maintenant aux utilisateurs de déterminer leur propre sexe, ce qui permet aux algorithmes de mieux reconnaître et représenter les identités trans.

En conclusion, bien que la technologie ait ouvert de nouvelles possibilités aux artistes trans, ils ont également créé des défis uniques à relever. Le biais algorithmique peut limiter l'exposition et la reconnaissance des créateurs trans, conduisant à l'isolement et à la sous-représentation.

Cependant, en travaillant avec les défenseurs trans et en modifiant l'industrie, nous pouvons créer un avenir plus inclusif pour tous les artistes.

Comment les algorithmes numériques perpétuent-ils les préjugés envers les créateurs trans ?

Les personnes trans peuvent éprouver de la discrimination dans la création de contenu sur les plateformes de médias sociaux qui s'appuient sur des algorithmes basés sur l'intelligence artificielle pour modérer les publications. Les algorithmes peuvent être décalés vers les perspectives cisgenres, ce qui entraîne l'exclusion du contenu trans. De plus, les personnes transgenres peuvent être confrontées à des erreurs en raison des filtres de mots sexistes et de la prévalence des stéréotypes sur leur identité.