Logo

ZeroOpposite

Contact Us
Search

COMMENT LE BIAIS ALGORITHMIQUE PERPÉTUE L'HÉTÉRONORMALITÉ DANS LES APPLICATIONS DE RENCONTRE ET LES RÉSEAUX SOCIAUX POUR LES PERSONNES + frEN IT DE PL TR PT RU AR JA CN ES

4 min read Queer

Internet devient un aspect de plus en plus important de la vie quotidienne, en particulier pour les personnes LGBTQ + qui peuvent être confrontées à la discrimination et aux préjugés dans les espaces physiques.

Cependant, malgré les efforts déployés pour créer des espaces en ligne plus inclusifs, le risque demeure que le biais algorithmique puisse renforcer les hypothèses hétéronormatives et contribuer à l'inégalité. Cet article va discuter de la façon dont les algorithmes peuvent finement privilégier les personnes cisgenres et hétérosexuelles, même dans des environnements virtuels conçus pour être accueillants avec toutes les identités. À cette fin, il discutera du concept de préjugés et de la façon dont ils peuvent se manifester dans les plateformes numériques, analysera des études de cas à partir d'applications populaires telles que Grindr et OkCupid, et recommandera de créer des espaces en ligne plus égaux pour tous.

Dans l'ensemble, cette partie vise à mettre en évidence les problèmes auxquels la communauté queer est confrontée lors de la navigation sur les rencontres numériques et la socialisation, et à promouvoir une plus grande sensibilisation et action. En comprenant comment les préjugés agissent, nous pouvons travailler à créer des expériences en ligne plus inclusives qui favorisent l'équité et l'égalité pour tous.

Les algorithmes sont des outils importants utilisés par de nombreux sites Web et applications pour trier les informations, faciliter la communication et optimiser l'expérience utilisateur. Ils comprennent un ensemble d'instructions ou de règles qui guident les machines à travers certaines tâches, ce qui les rend utiles pour les processus automatisés, tels que la prévision des résultats de recherche, le classement des produits en fonction des notes des clients ou la gestion des flux d'information personnalisés. Bien que ces systèmes puissent être incroyablement utiles, ils présentent aussi le potentiel de préjugés - des préférences involontaires, mais courantes, qui peuvent donner injustement un avantage à certains groupes sur d'autres. Par exemple, en termes de rencontres en ligne, un algorithme peut hiérarchiser des profils avec des mots clés, des images ou des caractéristiques spécifiques, ce qui conduira à des coïncidences reflétant les notions normatives de champ, de sexualité, de race ou de type de corps. Lorsque ces hypothèses sont codées en logiciels conçus pour tous, elles peuvent avoir des conséquences considérables pour ceux qui cherchent des liens en dehors des normes traditionnelles.

L'un des exemples connus est Grindr, une application populaire parmi les gays qui a été critiquée pour son racisme et son ajisme présumés. Selon le rapport 2018 du journaliste Michael Kelly, les utilisateurs peuvent recevoir moins de messages s'ils ont des caractéristiques « féminines » ou plus de 35 ans. Cela suggère que les algorithmes de Grindr favorisent certains attributs physiques, tout en excluant d'autres basés sur des critères arbitraires. De même, OkCupid a été accusé d'afficher des résultats racialement biaisés dans les résultats de comparaison, ce qui a incité la société à présenter des excuses et à modifier son algorithme pour résoudre ce problème. Dans les deux cas, il est souligné qu'une technologie apparemment neutre peut perpétuer la discrimination et l'effacement, ce qui fait que certains utilisateurs se sentent marginalisés ou exclus dans un autre environnement progressif.

Pour créer un espace numérique plus équitable, les développeurs doivent prendre des mesures pour identifier et éliminer les préjugés dans leurs algorithmes. Une stratégie consiste à diversifier les ensembles de données utilisés pour l'apprentissage des modèles d'apprentissage automatique, en veillant à ce qu'un large éventail d'identités, d'expériences et de perspectives définissent les processus décisionnels. Une autre approche consiste à promouvoir la responsabilisation par la rétroaction et la participation de la communauté, en demandant des informations aux utilisateurs afin de s'assurer que les algorithmes répondent aux besoins et aux préférences de toutes les personnes.

Enfin, les entreprises doivent investir dans l'éducation contre la discrimination et le soutien aux employés travaillant sur ces systèmes, en leur donnant la possibilité de reconnaître et de corriger les préjugés potentiels avant qu'ils ne nuisent. En prenant des mesures proactives comme celle-ci, nous pouvons lutter contre les effets insidieux du biais algorithmique et promouvoir l'inclusion sur les plateformes en ligne.

Les biais algorithmiques peuvent-ils améliorer subtilement les hypothèses hétéronormatives, même dans les espaces en ligne conçus pour être inclusifs ?

Bien que de nombreux espaces en ligne soient actuellement délibérément créés en mettant l'accent sur l'inclusion, il existe des preuves que certaines de ces plates-formes peuvent encore améliorer subtilement les hypothèses hétéronormatives grâce à leur conception algorithmique. Une façon de faire pourrait être d'inclure un langage codé qui implique des normes de genre dans les chatbots, les moteurs de recherche et d'autres systèmes d'intelligence artificielle.