Un biais algorithmique est un préjugé non intentionnel ou intentionnel qui existe dans les algorithmes utilisés pour prendre des décisions ou des prévisions basées sur des ensembles de données. Cela peut se produire lorsque certains groupes sont sous-représentés dans ces ensembles de données, conduisant à des résultats partiaux.
Si l'algorithme est formé sur des données sur des personnes qui sont généralement blanches et masculines, cela peut conduire à des résultats biaisés pour les femmes et les personnes de couleur.
Du point de vue de la visibilité étrange et des stéréotypes sur Internet, le biais algorithmique joue un rôle important dans la conception et la perception des identités étranges. Les gens étranges sont souvent confrontés à des stéréotypes et à des idées fausses en raison de leur identité, ce qui peut les exclure du discours de base.
Ces stéréotypes peuvent également se perpétuer à travers les résultats des moteurs de recherche, des bandes de médias sociaux et d'autres plateformes en ligne qui reposent sur des recommandations algorithmiques. Cet article va discuter de certaines des façons dont le biais algorithmique contribue à ce problème.
L'une des façons dont le biais algorithmique renforce l'invisibilité du quir est son impact sur les résultats du moteur de recherche. Lorsqu'on cherche de l'information liée aux problèmes LGBTQ +, on peut trouver des sites Web contenant des informations obsolètes ou inexactes ou même des articles contenant des propos haineux ou des stéréotypes nuisibles. Cela peut créer un cercle vicieux dans lequel les gens ne voient que des notions négatives sur des individus étranges sur Internet et suggèrent qu'ils n'ont pas leur place dans la société.
Comme de nombreuses communautés queer ont été historiquement marginalisées, elles manquent des ressources nécessaires pour assurer leur représentation dans les principaux moteurs de recherche comme Google ou Bing. Sans représentation adéquate, ces communautés restent invisibles pour de nombreuses personnes qui cherchent des informations les concernant en ligne.
Le biais algorithmique peut également contribuer à la propagation de stéréotypes nuisibles sur les gens étranges.
Lorsque les algorithmes donnent la priorité à certains types de contenu par rapport à d'autres, comme les vidéos impliquant des hommes blancs cisgenres engagés dans l'homophobie, cela peut normaliser ce comportement et le rendre plus acceptable qu'il n'est réellement. Ce type de partialité peut être particulièrement problématique pour les jeunes gens étranges qui n'ont peut-être pas accès à des informations précises sur leur identité ailleurs. Il crée également un environnement dans lequel des personnes étranges se sentent en danger de s'exprimer librement sur Internet par peur de devenir la cible de groupes haineux ou de trolls.
Le biais algorithmique peut perpétuer l'idée que les personnes étranges sont moins dignes de représentation que les hétéronormatifs. Cela se produit lorsque des plateformes telles que YouTube recommandent un contenu similaire basé uniquement sur l'historique des vues et non sur la pertinence réelle ou le niveau d'intérêt. En recommandant un contenu basé sur ce qui a déjà été vu et non ce que quelqu'un veut vraiment voir, cela renforce l'idée que le contenu queer n'est pas assez important pour une recherche active. Cela favorise un cycle où les utilisateurs continuent à consommer les médias de base sans jamais rencontrer de perspectives ou de narrations différentes au-delà de leur zone de confort.
Le biais algorithmique peut entraîner une discrimination contre les personnes étranges dans les applications de rencontre ou d'autres réseaux sociaux. De nombreuses applications populaires utilisent des algorithmes pour choisir des personnes en fonction d'intérêts ou d'apparences communs, ce qui peut exclure des personnes étranges qui ne entrent pas dans ces catégories.
Certaines applications utilisent les données des profils d'utilisateurs et de l'historique d'activité pour proposer des correspondances basées sur des caractéristiques stéréotypées, une marginalisation supplémentaire des personnes qui ne répondent pas à ces attentes.
Le biais algorithmique n'est qu'un des facteurs qui contribuent à l'invisibilité du quir et aux stéréotypes sur Internet; cependant, il joue un rôle important dans la façon dont ces problèmes se manifestent. Compte tenu de ce défi, nous pouvons commencer à travailler à la création d'espaces en ligne plus inclusifs et équitables pour toutes les données d'identification, y compris les données étranges.
Comment le biais algorithmique perpétue-t-il l'invisibilité queer ou les stéréotypes sur Internet ?
D'après des études et des sondages, on peut voir que des personnes étranges rencontrent souvent des problèmes lors de l'utilisation des plateformes de médias sociaux en raison de diverses causes telles que l'homophobie, la transphobie et le cissexisme. L'un de ces problèmes est la présence d'un biais algorithmique qui est défini comme la tendance des algorithmes à perpétuer les stéréotypes et à renforcer les préjugés existants contre des individus étranges.