Un système algorithmique peut-il amplifier ou supprimer les voix queer? Cette question est discutée depuis des années dans les milieux de l'informatique, mais il n'y a toujours pas de réponse claire. D'un côté, il semble que les algorithmes puissent aider à identifier et à promouvoir les communautés marginales comme la communauté LGBTQ +. D'un autre côté, elles peuvent également exacerber les préjugés existants et exacerber la discrimination à l'égard de ces groupes.
Les algorithmes sont des formules mathématiques conçues pour résoudre des problèmes. Ils acceptent les données et donnent des résultats basés sur ces entrées. Ces dernières années, elles sont devenues de plus en plus importantes dans des domaines tels que la finance, la santé, l'éducation et la politique. Mais quand il s'agit de renforcer ou de supprimer les voix queer, leur rôle devient plus compliqué.
L'un des moyens de renforcer les voix queer est d'utiliser des systèmes de recommandation. Ces systèmes offrent des articles, des vidéos ou d'autres médias qui peuvent sembler intéressants pour les utilisateurs. S'ils remarquent des tendances dans ce que les gens lisent ou regardent, ils peuvent adapter les recommandations pour refléter ces intérêts. Il peut s'agir d'un contenu axé sur les requêtes qui, autrement, pourrait être difficile à trouver.
Cependant, ces algorithmes ne fonctionnent pas toujours comme prévu.
Par exemple, certaines études ont montré que les recommandeurs peuvent exclure le contenu de certains auteurs s'ils utilisent une langue spécifique. D'autres peuvent afficher des publicités axées sur les hommes cisgenres, ce qui rend difficile pour les transgenres de trouver des informations pertinentes.
En outre, ces systèmes peuvent perpétuer les stéréotypes sur le sexe et la sexualité. Ils peuvent supposer que tout le monde veut voir les notions traditionnelles d'une relation romantique entre un homme et une femme, ce qui limite la visibilité des identités anormales. De même, ils peuvent supposer que toutes les femmes veulent voir des cours de maquillage en ignorant les différents standards de beauté.
Pour résoudre ce problème, les entreprises ont commencé à développer des algorithmes plus inclusifs. Certaines plateformes prennent maintenant en compte des facteurs tels que la race, l'ethnicité et le handicap dans la création d'offres de contenu. D'autres permettent aux utilisateurs de personnaliser leurs préférences en spécifiant des catégories d'identifiants.
Cependant, il y a encore beaucoup de possibilités d'amélioration.
Les algorithmes jouent également un rôle important dans la poursuite des gens étranges sur Internet. La rhétorique de la haine, le doxing (partage public de renseignements personnels) et d'autres formes d'abus sont devenus monnaie courante sur les réseaux sociaux. Ces plateformes s'appuient souvent sur des algorithmes d'apprentissage automatique pour marquer des posts potentiellement injurieux. Mais parfois, ils ne reconnaissent pas les mots et les actions nuisibles.
En outre, les systèmes algorithmiques peuvent indirectement contribuer à la discrimination des communautés LGBTQ +.
Par exemple, les sites de recrutement utilisent souvent des mots-clés pour comparer des candidats à des postes ouverts. Si ces mots clés excluent les termes associés à des identités non binaires ou polyamorales, cela pourrait entraîner un biais.
En général, les systèmes algorithmiques ne peuvent pas être totalement neutres en ce qui concerne le renforcement ou la suppression des voix queer. Bien qu'ils aient la capacité de soutenir la diversité, ils doivent être soigneusement conçus et testés pour prévenir les conséquences involontaires. Les décideurs et les décideurs doivent veiller à ce que ces outils soient utilisés de manière responsable et équitable.
Les systèmes algorithmiques peuvent-ils jamais être neutres lorsque les voix queer sont amplifiées ou brouillées ?
Renforcer les voix queer a été un défi constant pendant de nombreuses années, lorsque les gens ont souvent été confrontés à la discrimination, les préjugés et l'exclusion de la société de base. Bien que la technologie puisse sembler une solution prometteuse pour résoudre ce problème, il y a des raisons de croire qu'elle ne peut pas le faire de manière totalement neutre. Les systèmes algorithmiques sont développés par des personnes qui ont leurs propres préjugés et croyances qui peuvent façonner la façon dont elles interprètent les données et prennent des décisions.