AI può essere utilizzato per automatizzare le attività che richiedono l'elaborazione del linguaggio naturale (NLP), come le chat bot per il supporto clienti. Queste chat-bot sono spesso addestrate utilizzando set di dati che contengono una grande quantità di dati provenienti da diverse fonti, inclusi i post sui social media e forum online dove le persone discutono le loro esperienze sull'identità di genere. Quando questo accade, l'IA può involontariamente riprodurre le idee sbagliate o persino gli stereotipi dannosi sulle persone transgender. Questo perché gli algoritmi che controllano questi sistemi si basano sui modelli che trovano nei dati di apprendimento e possono alla fine aumentare questi pregiudizi senza rendersene conto.
Ad esempio, se un set di dati contiene commenti negativi sull'aspetto delle persone transgender, ciò può portare a fare commenti di chat-bot quando si parla con loro. Allo stesso modo, se un set di dati include un linguaggio obsoleto o presupposti sui ruoli di genere, il chat-bot può trarre conclusioni o giudizi sbagliati sulla base di questi pregiudizi. Un altro modo in cui l'IA può perpetuare un malinteso intorno all'identità di genere è il riconoscimento visivo. È noto che il software di riconoscimento facciale combatte l'identificazione di individui non nativi a causa della mancanza di dati formativi complessi su espressioni di genere, oltre a binarie opzioni maschili/femminili. Questo può portare a pratiche eccezionali, come costringere le persone a usare i loro nomi legali invece di pronomi preferiti, che possono rendere invalidante la loro identità.
Inoltre, la tecnologia di riconoscimento facciale è comunemente utilizzato nelle misure di sicurezza, come il controllo in aeroporto, che può portare alla discriminazione di individui che non corrispondono alle tradizionali nozioni di virilità o femminilità. Il problema va oltre i sistemi di IA. In alcuni casi, gli stessi sviluppatori di IA possono avere uno slancio inconsapevole verso determinati sessi, che li porta a sviluppare prodotti che rafforzano le dinamiche di potere esistenti nella società. Questi sono solo alcuni esempi di come l'IA possa involontariamente promuovere sessismo e cisnormità. Per affrontare questo problema, è importante che le aziende che sviluppano strumenti di IA tengano presente il loro potenziale impatto sui gruppi marginalizzati e assicurino che tutte le voci vengano ascoltate durante il processo di sviluppo. Gli sviluppatori devono inoltre collaborare strettamente con gli esperti delle comunità sottoutilizzate che possono dare un'idea di eventuali problemi principali da risolvere prima di lanciare nuovi prodotti.
In generale, anche se l'IA offre molte opportunità di innovazione, dobbiamo rimanere vigili, evitando che possa rafforzare gli stereotipi dannosi legati all'identità di genere.
Come può l'IA riprodurre involontariamente pregiudizi o fraintendimenti sull'identità di genere?
L'uso dell'intelligenza artificiale (IA) può potenzialmente portare alla perpetuazione di pregiudizi e concezioni errate sull'identità di genere a causa dei dati utilizzati per la sua formazione. Questi dati potrebbero riflettere un pregiudizio nei confronti dell'identità di genere, che potrebbe portare il sistema IA a riprodurre questi pregiudizi nel processo decisionale.