Les algorithmes sont des programmes informatiques qui peuvent traiter des données pour résoudre des problèmes. Ils travaillent selon les formules mathématiques et la logique. Les algorithmes sont utilisés partout, des moteurs de recherche aux réseaux sociaux et aux applications de rencontre en ligne. Mais comment les algorithmes reflètent-ils les préjugés sociaux qui marginalisent les voix queer?
Dans cet article, j'étudie comment les préjugés algorithmiques affectent les gens queer et comment ils perpétuent les inégalités. Je vais également donner des exemples de scénarios réels où des gens étranges ont été discriminés en raison de biais algorithmiques.
Enfin, je proposerai quelques solutions pour réduire le biais algorithmique.
Le biais algorithmique
Les algorithmes sont développés par des gens qui peuvent introduire inconsciemment leurs propres préjugés dans le code. Cela signifie que les algorithmes peuvent refléter des normes sociales et des préjugés qui marginalisent souvent les voix queer.
Par exemple, un site d'achat en ligne peut montrer aux hommes et aux femmes des publicités différentes basées sur des stéréotypes de genre sur ce qu'ils doivent acheter. De même, l'algorithme de demande d'emploi peut privilégier les candidats directs plutôt que l'étrange, parce que la société estime que l'hétérosexualité est plus répandue dans l'industrie.
Exemples de décalage algorithmique
L'un des exemples récents de décalage algorithmique a été lorsque Tinder a présenté des estimations « Elo » pour correspondre aux utilisateurs. L'évaluation Elo doit mesurer la compatibilité entre deux personnes.
Cependant, il s'est avéré que l'algorithme préférait les individus blancs, cisgenres, hétéronormatifs, même si ces caractéristiques ne faisaient pas partie des critères de conformité. En conséquence, de nombreuses personnes étranges se sont senties exclues de la plateforme et l'ont complètement quittée.
Un autre exemple est la technologie de reconnaissance faciale, qui a été démontrée pour ne pas identifier correctement les personnes trans et non binaires comme leur sexe de naissance. Cela peut conduire à des situations dangereuses où les agents d'application de la loi utilisent des données erronées pour arrêter ou harceler quelqu'un.
Solutions pour réduire le biais algorithmique
Pour réduire le biais algorithmique, les entreprises doivent être transparentes sur la façon dont leurs algorithmes fonctionnent et collecter des commentaires variés des utilisateurs. Ils doivent également embaucher des développeurs avec des expériences et des points de vue différents pour s'assurer que toutes les voix sont représentées dans le processus de conception.
Enfin, ils doivent mettre en place des mesures fiables de contrôle de la qualité pour vérifier les biais avant de lancer de nouveaux produits ou mises à jour.
En conclusion, les algorithmes peuvent perpétuer les préjugés sociaux contre les gens étranges, reflétant les normes et les préjugés. Les entreprises doivent prendre des mesures pour réduire ce biais en étant transparentes sur leurs algorithmes et en intégrant différents points de vue dans le développement. Si nous voulons créer une société plus juste, nous devons nous attaquer au problème du décalage algorithmique.
Comment les algorithmes reflètent-ils les préjugés sociaux qui marginalisent les voix queer ?
L'une des façons dont les algorithmes peuvent refléter les préjugés sociaux est de les développer et de les mettre en œuvre. Comme les algorithmes sont créés par les gens, ils peuvent inclure certaines valeurs et croyances qui sont courantes dans la société. Cela signifie qu'ils sont plus susceptibles d'avoir un avantage sur les autres, comme l'hétéronormalité ou le cisgenderisme.