Logo

ZeroOpposite

Contact Us
Search

SEXUALITÉ/SEXUALISATION ET AI : COMMENT LES ALGORITHMES PEUVENT CONDUIRE À DES PRÉJUGÉS À L'ÉGARD DES MINORITÉS frEN IT DE PL TR PT RU AR JA CN ES

Les algorithmes sont des programmes informatiques qui peuvent effectuer certaines tâches sans intervention humaine. Ils travaillent en analysant de grandes quantités de données et en trouvant des modèles pour la prise de décision. Ces schémas peuvent être fondés sur des tendances historiques ou des probabilités statistiques. Des algorithmes ont été utilisés pour identifier le risque de crédit, prévoir la météo, optimiser les chaînes d'approvisionnement, recommander de la musique, détecter la fraude et même diagnostiquer les maladies.

Mais ils perpétuent aussi les préjugés sociaux et la discrimination à l'égard des groupes minoritaires. Cet article examinera comment les algorithmes reproduisent les préjugés moraux contre les identités incohérentes et exploreront les moyens de contrer ces préjugés.

L'une des façons dont les algorithmes reproduisent les préjugés moraux est d'utiliser des classificateurs binaires. Les classificateurs binaires divisent les gens en catégories telles que l'homme/femme, noir/blanc, hétéro/gay, abed/handicapé, etc. Ils attribuent alors à chaque catégorie un ensemble de caractéristiques qui peuvent correspondre ou non à la réalité.

Par exemple, un algorithme conçu pour détecter les criminels peut classer n'importe qui avec des tatouages comme un criminel, quel que soit son comportement réel. Cela peut conduire à cibler de manière disproportionnée certains groupes, y compris ceux qui ne correspondent pas aux rôles traditionnels des femmes.

Une autre façon dont les algorithmes reproduisent les préjugés moraux est d'utiliser l'apprentissage automatique. L'apprentissage automatique comprend l'apprentissage de modèles sur de vastes ensembles de données et leur permet d'apprendre des erreurs passées.

Cependant, si l'ensemble de données est incomplet ou déplacé vers un groupe, le modèle donne des résultats inexacts pour les autres groupes.

Par exemple, la technologie de reconnaissance faciale identifie souvent à tort les femmes noires parce qu'elle a été formée principalement sur des hommes blancs. De même, les algorithmes de recrutement peuvent privilégier les candidats ayant des noms habituels, comme John Smith, plutôt que les candidats ayant des noms plus ethniques.

Pour lutter contre ces préjugés, nous devons augmenter la diversité des ensembles de données utilisés par les algorithmes. Nous devons recueillir et analyser des données provenant de groupes sous-représentés, notamment les personnes de couleur, les personnes LGBTQ +, les immigrants, les personnes handicapées et les minorités religieuses. Nous devons également enseigner les modèles à partir de différents exemples afin qu'ils reconnaissent tous les types d'expériences humaines.

En outre, nous devons vérifier l'exactitude et l'équité des algorithmes existants en veillant à ce qu'aucun groupe ne soit discriminé.

Enfin, nous devons tenir les entreprises responsables lorsque leurs produits perpétuent des stéréotypes nuisibles. En prenant ces mesures, nous pouvons créer une société plus juste où chacun aura un accès égal aux possibilités et aux ressources.

Comment les algorithmes reproduisent-ils les préjugés moraux contre les identités incohérentes ?

Il a été montré que les algorithmes répètent des préjugés moraux contre des identités incohérentes en raison de leur dépendance à des ensembles de données qui reflètent souvent les préjugés des programmeurs humains et les normes sociales. Par exemple, lors de la programmation d'un algorithme pour un logiciel de reconnaissance faciale, les développeurs enseignent généralement le système en utilisant des images de cultures occidentales où les visages blancs sont plus souvent représentés que d'autres races.