Ces dernières années, l'attention s'est accrue sur les effets négatifs potentiels du biais algorithmique sur les plateformes de médias sociaux, en particulier quand il s'agit de questions liées à la race et au sexe.
Cependant, qu'en est-il des biais algorithmiques qui renforcent subtilement les hypothèses hétéronormatives dans les espaces destinés à l'inclusion? Cet essai traitera de cette question, examinera comment ces préjugés peuvent se manifester dans différents contextes et discutera des stratégies pour en atténuer les effets.
Avant tout, il est important de comprendre ce que signifie « hétéronormative ». L'hétéronormance se réfère à l'hypothèse que tous les droits, les cisgenres et les monogames. Elle suggère que l'hétérosexualité est la norme et que tout écart par rapport à cela n'est pas normal. Les distorsions algorithmiques peuvent perpétuer cette croyance, même dans des espaces qui doivent être inclusifs.
Par exemple, considérons une application de rencontre qui utilise des algorithmes pour comparer les utilisateurs en fonction de leurs préférences et intérêts. Si les deux partenaires par défaut sont des hommes ou des femmes cisgenres, cela pourrait entraîner l'exclusion des personnes non binaires qui ne s'identifient pas comme des hommes ou des femmes. De même, si l'application donne la priorité aux couples qui partagent des opinions religieuses ou politiques similaires, elle peut exclure les personnes ayant des convictions différentes.
Une autre façon par laquelle les distorsions algorithmiques peuvent renforcer l'hétéronormative est de promouvoir certains types de relations par rapport aux autres.
Par exemple, de nombreuses applications de rencontre en ligne offrent des fonctionnalités telles que le balayage à droite ou à gauche sur les correspondances potentielles. Bien que cela puisse sembler inoffensif, cela peut en fait stimuler des jugements superficiels basés sur l'apparence plutôt que sur des facteurs de compatibilité plus profonds. En conséquence, les personnes qui ne s'inscrivent pas dans les normes de beauté traditionnelles ou qui sont en dehors des tranches d'âge typiques peuvent avoir du mal à trouver des partenaires appropriés.
En outre, certaines applications permettent aux utilisateurs de choisir un seul sexe lors de la recherche de correspondances potentielles, ce qui limite l'ensemble des options disponibles et confirme l'idée de n'avoir que deux sexes.
Enfin, les biais algorithmiques peuvent également amplifier subtilement les hypothèses hétéronormatives à l'aide du langage.
Par exemple, des termes tels que « mari » ou « femme » peuvent apparaître automatiquement dans les messages de chat entre deux utilisateurs associés. Cela renforce l'idée que toutes les relations sont hétérosexuelles et monogames, même si de nombreuses personnes ont des préférences ou des identités différentes. De même, les recommandations algorithmiques peuvent suggérer des actions ou des événements qui impliquent une orientation sexuelle ou un état matrimonial particulier. Ces hypothèses peuvent nuire à ceux qui ne entrent pas dans ces catégories et les faire se sentir exclus de la communauté.
Alors, comment pouvons-nous résoudre ces problèmes? Une stratégie consiste à offrir des options plus inclusives dans les algorithmes et les fonctions.
Par exemple, les applications de rencontre peuvent offrir plusieurs options de genre et permettre aux utilisateurs de personnaliser les critères de recherche pour inclure des attributs spécifiques, en plus de l'identité de genre. Ils pourraient également éviter d'utiliser une langue qui suggère que tous les naturalistes ou mariés. Une autre approche consiste à informer les utilisateurs de l'existence d'un biais et de son impact sur leur expérience. En sensibilisant les utilisateurs, ils peuvent être plus conscients des choix qu'ils font et plus conscients quand ils renforcent des normes qui excluent certains groupes.
Enfin, les plates-formes doivent donner la priorité à la recherche et au développement visant à créer une expérience plus diversifiée et plus équitable pour tous les utilisateurs.
En conclusion, alors que les préjugés algorithmiques peuvent sembler inoffensifs à première vue, ils peuvent en fait perpétuer des stéréotypes et des exceptions nuisibles. En comprenant comment ces préjugés fonctionnent et en prenant des mesures pour les atténuer, nous pouvons créer des espaces qui favorisent réellement l'engagement et la diversité.
Les biais algorithmiques peuvent-ils améliorer subtilement les hypothèses hétéronormatives, même dans les espaces destinés à l'inclusion ?
Selon les spécialistes de l'informatique, les biais algorithmiques peuvent vraiment renforcer les hypothèses hétéronormatives, quelle que soit l'intention de l'espace d'être inclusif. Les algorithmes sont créés par des personnes qui peuvent avoir des préjugés inconscients qui influencent le processus décisionnel, ce qui peut conduire à la discrimination de certains groupes, y compris ceux qui s'identifient comme LGBTQ +.