Logo

ZeroOpposite

Contact Us
Search

ÉTUDIER LES PRÉJUGÉS SEXISTES ET LA MARGINALISATION LGBT + DANS LES ALGORITHMES DES RÉSEAUX SOCIAUX frEN IT DE PL TR PT RU AR JA CN ES

4 min read Queer

Les algorithmes jouent un rôle de plus en plus important dans la façon dont nous orientons et interagissons avec le monde numérique, y compris les plateformes de médias sociaux telles que Facebook, Twitter, TikTok, Instagram et YouTube. Ces algorithmes sont conçus pour promouvoir les posts en fonction de leur pertinence et de leur popularité, ce qui conduit souvent à renforcer certains points de vue, tout en faisant taire d'autres. Cette tendance pourrait avoir de graves conséquences pour les groupes marginalisés, y compris les personnes appartenant à des communautés minoritaires, qui pourraient être victimes de discrimination, de harcèlement et de censure sur Internet. L'un de ces groupes est la communauté LGBTQ +, dont les voix sont trop souvent réduites ou ignorées en faveur de perspectives plus traditionnelles. Dans cet article, nous allons discuter de la façon dont les algorithmes reproduisent les préjugés sociaux qui marginalisent les voix queer en ligne, en mettant l'accent sur le cas de l'identité de genre et de l'orientation sexuelle.

Le problème commence par le fait que la plupart des plates-formes de réseaux sociaux exigent que les utilisateurs choisissent le sexe lors de la création d'un compte. Bien que cela semble assez inoffensif, cela renforce en fait l'idée qu'il n'y a que deux sexes - masculin et féminin - qui excluent les non-binaires et ceux qui s'identifient comme n'étant ni l'un ni l'autre. Ce biais est alors perpétué par la préférence de l'algorithme pour les posts qui correspondent au point de vue de la majorité, ce qui signifie que le contenu non binaire est susceptible d'être supprimé.

Par exemple, si quelqu'un cherche un « sexe », il peut voir des articles sur les problèmes des transgenres ou des discussions sur les pronoms, mais pas beaucoup d'autres. De même, la recherche de « l'orientation sexuelle » donnerait des résultats liés à l'hétérosexualité, la monogamie et le mariage, mais peu avec les autres.

Une autre façon dont les algorithmes reproduisent les préjugés sociaux est de recommander le contenu. Lorsque les utilisateurs s'occupent de contenus liés à la sexualité ou à l'intimité, les algorithmes tendent à donner la priorité à des posts qui reflètent les normes traditionnelles, comme les relations directes, les couples monogames ou même la pornographie impliquant des personnalités cisgenres. En conséquence, des voix étranges peuvent avoir du mal à prendre de l'élan, tandis que les perspectives alternatives se taisent. Cela peut avoir de graves conséquences pour les personnes qui cherchent du soutien, des conseils ou des communications, ainsi que pour les communautés LGBTQ + qui tentent d'accroître la sensibilisation et la visibilité.

Enfin, les algorithmes ont également tendance à privilégier les contenus sensationnels ou polarisants, ce qui signifie que les posts qui contestent les opinions habituelles sur le sexe, la sexualité et les relations peuvent ne pas recevoir autant d'attention que les opinions plus traditionnelles. Ce biais pourrait marginaliser davantage les voix queer, car elles pourraient avoir plus de difficulté à atteindre un public en dehors de leurs cercles les plus proches.

En conclusion, les algorithmes jouent un rôle important dans la formation du discours en ligne, y compris la façon dont nous parlons de l'identité de genre et de l'orientation sexuelle. En reproduisant les préjugés sociaux qui ont un avantage sur le point de vue de la majorité, ces algorithmes peuvent faire taire les voix des minorités et limiter l'accès à l'information. Il est donc essentiel que nous travaillions à la création de plateformes plus inclusives qui soutiennent toutes les identités et toutes les perspectives.

Comment les algorithmes reproduisent-ils les préjugés sociaux qui marginalisent les voix queer sur Internet ?

Algorithmes sont des programmes informatiques conçus pour résoudre des problèmes spécifiques basés sur un ensemble de règles et de données. Ils peuvent tirer des leçons de l'expérience passée et, avec le temps, améliorer le processus décisionnel. Les plateformes de médias sociaux telles que Facebook et Twitter utilisent des algorithmes pour recommander du contenu aux utilisateurs en fonction de leurs intérêts, de leur historique et de leurs interactions. Lorsque ces algorithmes sont formés avec des données biaisées, ils peuvent reproduire les préjugés sociaux qui marginalisent les voix queer sur Internet en faisant la promotion du contenu hétéronormatif au-dessus des voix queer.