Internet est loué pour sa capacité à rassembler des gens du monde entier et à créer un environnement dans lequel tout le monde peut avoir son mot à dire.
Cependant, ce n'est pas toujours le cas. Les algorithmes qui gèrent Internet ont tendance à reproduire les préjugés sociaux contre les voix étranges, en limitant leur visibilité et en les rendant difficiles à écouter. Dans cet article, nous allons examiner comment les algorithmes perpétuent ces préjugés et ce qui peut être fait à ce sujet.
Pour commencer, définissons le terme « queer ». Quir s'applique à quiconque ne s'identifie pas comme hétérosexuel ou cisgenre. Cela inclut les personnes lesbiennes, gays, bisexuelles, transgenres, non binaires, intersexes et asexuelles, entre autres. Il couvre également les personnes qui s'identifient comme pansexuels, polyamores, kinks et tout ce qui va au-delà des normes traditionnelles. Ces groupes sont victimes de discrimination et de harcèlement tous les jours, y compris sur Internet.
Les algorithmes fonctionnent en scannant le texte et en analysant les modèles. Ils sont conçus pour fournir aux utilisateurs des résultats pertinents en fonction de ce qu'ils recherchent.
Cependant, si l'algorithme est formé avec des données qui hiérarchisent les perspectives directes, blanches et masculines, il ne reconnaît pas les voix étranges.
Par exemple, si un utilisateur cherche un « conseil de relation », l'algorithme peut montrer des articles écrits par des hommes sur les rencontres avec des femmes, parce que ce sont les articles les plus couramment utilisés. Cela exclut les voix étranges qui peuvent conduire à la désinformation et à un isolement accru.
Une autre façon dont les algorithmes renforcent les préjugés sociaux est la publicité ciblée. Les entreprises utilisent des algorithmes pour analyser l'historique des visites et le comportement des utilisateurs afin d'afficher des publicités adaptées à leurs intérêts. Si l'algorithme identifie quelqu'un comme un natural, il peut afficher des publicités pour des robes de mariée ou des produits pour enfants. Inversement, si l'algorithme identifie quelqu'un comme queer, il peut lui montrer une publicité pour des événements LGBTQ + ou des sites de rencontre. Cela crée un faux sentiment de normalité autour de l'hétéronormalité, rendant difficile la connexion des gens étranges entre eux.
Enfin, les algorithmes peuvent promouvoir des stéréotypes nuisibles sur les gens étranges. Les moteurs de recherche peuvent proposer des articles qui perpétuent des stéréotypes négatifs sur les personnes transgenres, par exemple, les enfants transgenres sont confus dans leur identité de genre ou les personnes transgenres sont intrinsèquement dangereuses. Cela confirme l'idée qu'être queer n'est pas normal et devrait être évité.
Alors, comment y remédier? Une solution consiste à diversifier les données utilisées pour l'apprentissage des algorithmes. Des entreprises comme Google ont pris des mesures dans ce sens, y compris l'affichage d'images plus variées dans les résultats de recherche et l'ajout de balises pour identifier le contenu LGBTQ +.
Cependant, cela ne résoudra pas le problème en soi. Les voix queer doivent être activement recherchées et incluses dans les espaces en ligne. Cela signifie créer des plates-formes spécifiques aux queers où ils peuvent partager librement leurs points de vue sans crainte de censure ou de discrimination. Cela signifie aussi encourager les Alliés à renforcer leurs voix étranges sur les réseaux sociaux et ailleurs.
En conclusion, les algorithmes ne sont pas neutres; elles reflètent les préjugés de la société, à la fois conscients et inconscients. En reconnaissant cela, nous pouvons prendre des mesures pour faire d'Internet un espace plus sûr pour toutes les personnes, indépendamment de leur sexualité ou de leur identité de genre. Travaillons ensemble pour créer un monde où chacun a une voix, entendue et respectée.
Comment les algorithmes reproduisent-ils les préjugés sociaux contre les voix queer sur Internet ?
Les algorithmes peuvent renforcer les préjugés sociaux contre les voix queer sur les plateformes en ligne parce qu'ils sont souvent formés à des données qui reflètent des perspectives et des normes hétéronormatives. Cela signifie qu'il peut être difficile pour les algorithmes de reconnaître et de classer le contenu comme un contenu queer, ce qui peut entraîner son omission ou sa sous-représentation.