Les technologies d'intelligence artificielle sont de plus en plus utilisées pour interpréter et classer les identités de genre, mais elles peuvent être sujettes à des préjugés sociaux qui peuvent conduire à des résultats erronés ou nuisibles. Voici comment cela se produit:
1) Les ensembles de données utilisés pour enseigner les algorithmes d'intelligence artificielle peuvent contenir des biais en raison de l'attitude historique à l'égard de certains sexes ou de l'orientation sexuelle.
Par exemple, si un ensemble de données comprend des images de femmes engagées dans des activités féminines traditionnelles telles que la cuisine et le nettoyage, il peut citer un algorithme d'intelligence artificielle pour lier ces tâches à l'identité de genre féminine.
2) Les algorithmes qui analysent les schémas de parole et les caractéristiques vocales pour déterminer l'identité de genre peuvent également dépendre des stéréotypes culturels sur la façon dont les hommes et les femmes sonnent. Cela peut conduire à une identification erronée ou à une discrimination contre des personnes non binaires qui ne correspondent pas à ces stéréotypes.
3) Le logiciel de reconnaissance faciale est un autre domaine dans lequel il peut y avoir des préjugés sexistes, en particulier quand il s'agit de reconnaître des traits de visage neutres ou transgenres dont l'apparence ne correspond pas au sexe qu'il a désigné à la naissance.
4) En plus du sexe, les algorithmes d'intelligence artificielle peuvent également perpétuer d'autres formes d'inégalité basées sur la race, l'âge, le statut de handicap et l'origine socioéconomique.
Par exemple, un algorithme conçu pour détecter les émotions dans les images de surveillance peut faussement étiqueter les Noirs comme agressifs ou criminels plus souvent que les Blancs.
5)
Enfin, les systèmes d'intelligence artificielle sont développés par des gens qui sont eux-mêmes biaisés, ce qui peut se refléter dans la façon dont ils programment leurs technologies. Les préjugés dans le développement de l'IA étaient liés à la sous-représentation des femmes et des minorités dans les industries technologiques.
Pour résoudre ces problèmes, les chercheurs doivent travailler à créer des ensembles de données plus variés et enseigner aux algorithmes de l'IA à reconnaître les expressions anormales du sexe. Les entreprises doivent également vérifier si leurs systèmes d'IA sont biaisés et mettre en place des mesures de protection pour prévenir la discrimination.
En fin de compte, la société doit défier l'attitude dépassée envers le sexe et la sexualité pour que tout le monde se sente vu et respecté dans notre monde de plus en plus numérique.
Comment les technologies d'intelligence artificielle peuvent-elles reproduire les préjugés sociaux dans l'interprétation ou la catégorisation de l'identité de genre ?
L'intelligence artificielle (IA) est formée sur de grandes quantités de données qui reflètent les comportements humains et les préjugés. Par conséquent, les systèmes d'IA peuvent copier les préjugés présents dans le matériel original utilisé pour leur apprentissage, y compris ceux liés à l'identité de genre.