Comment les algorithmes renforcent-ils les préjugés sociaux qui marginalisent les voix queer sur Internet?
L'Internet est de plus en plus accessible aux gens du monde entier, ce qui leur permet de communiquer avec d'autres personnes qui partagent des intérêts et des expériences similaires.
Malgré ces progrès, certains groupes sont toujours confrontés à la discrimination et aux préjugés en raison de leur identité. Les individus queer sont parmi les plus touchés par ces préjugés, parce que la société les considère souvent comme une déviation de la norme. Ainsi, ils peinent à trouver des endroits où ils peuvent s'exprimer ouvertement sans jugement ni moquerie. C'est là que les algorithmes entrent en jeu; elles créent des liens, mais perpétuent aussi des stéréotypes nuisibles et l'isolement. Les algorithmes renforcent les préjugés sociaux qui marginalisent les voix queer sur Internet grâce à la publicité ciblée, au filtrage algorithmique et aux résultats de recherche personnalisés.
La publicité ciblée comprend l'utilisation de données utilisateur pour afficher des publicités adaptées à une démographie particulière.
Par exemple, si une entreprise veut vendre des produits liés à l'identité de genre, elle peut cibler les utilisateurs transgenres en fonction de leur historique de visites et de leur activité sur les réseaux sociaux. Bien que cette approche augmente la fréquence des transitions, elle renforce également l'idée que certains groupes de personnes sont moins désirables que d'autres. Il envoie le message que la transgenre est quelque chose de spécial ou de niche, pas une partie de la vie quotidienne, ce qui contribue à la stigmatisation et à la marginalisation. Il en va de même pour les applications de rencontre qui sélectionnent les utilisateurs en fonction de l'orientation sexuelle; si ces plateformes offrent des espaces sécurisés aux personnes LGBTQ + pour rencontrer des partenaires aux vues similaires, elles isolent en outre les personnes hétérosexuelles qui ne connaissent peut-être pas ou ne sont pas sûres d'une relation non hétéronormative.
Le filtrage algorithmique s'appuie sur des techniques d'apprentissage automatique pour superviser le contenu selon les préférences de chaque utilisateur. Malheureusement, ce processus peut exclure différentes perspectives, car les algorithmes suggèrent que les téléspectateurs veulent voir sur la base d'interactions antérieures avec des matériaux similaires.
Par exemple, l'algorithme peut recommander une vidéo sur la publication d'histoires uniquement aux spectateurs ordinaires, parce que c'est tout ce qu'ils ont vu dans le passé. Les individus queer deviennent alors invisibles dans la recherche de tels sujets, car l'algorithme suppose qu'ils savent déjà tout ce qu'ils doivent savoir sur eux. Cela crée un cycle où seuls les récits cisgenres et hétérosexuels restent visibles sur Internet, taisant les voix alternatives.
Les résultats de recherche personnalisés fonctionnent de la même manière, montrant les résultats les plus adaptés aux intérêts individuels, au lieu de donner des chances égales aux différentes perspectives. Si quelqu'un cherche une « histoire d'amour lesbienne », il verra probablement des articles impliquant des lesbiennes blanches et des femmes cisgenres, plutôt que des représentations variées. Cette exception renforce l'idée que l'étrangeté n'est acceptable que si elle répond aux attentes de la société en limitant la visibilité au-delà des idéaux fondamentaux.
En conclusion, les algorithmes renforcent les préjugés sociaux qui marginalisent les voix queer sur Internet par des publicités ciblées, un filtrage algorithmique et des résultats de recherche personnalisés. Ces processus créent un cycle dans lequel seules certaines identités sont visibles, renforçant la stigmatisation et la discrimination à l'égard de ceux qui ne s'inscrivent pas dans les normes traditionnelles. Pour lutter contre ce problème, les entreprises doivent assurer l'inclusion sur différentes plateformes, en offrant des ressources adaptées à toutes les caractéristiques démographiques et en évitant les hypothèses sur ce que les utilisateurs veulent voir.
Comment les algorithmes renforcent-ils les préjugés sociaux qui marginalisent les voix queer sur Internet ?
Les gens supposent souvent que la technologie est impartiale, mais elle reflète les valeurs et les croyances humaines. L'algorithme qui sous-tend les plates-formes Internet avec lesquelles nous interagissons apprend régulièrement sur les comportements et les préférences des utilisateurs au fil du temps. Par exemple, si certains types de contenu et styles de communication sont plus populaires parmi les personnes hétérosexuelles que d'autres, ces schémas seront reflétés dans les systèmes de recommandation utilisés par ces plateformes.