Logo

ZeroOpposite

Contact Us
Search

SESSUALITÀ E INTELLIGENZA ARTIFICIALE: COME PREGIUDIZIO CONTRO LE PERSONE LGBT + PUÒ ESSERE MITIGATO CON MECCANISMI EFFICACI itEN FR DE PL PT RU AR JA CN ES

Quando si considerano i potenziali pregiudizi nei sistemi di intelligenza artificiale (IA), è importante considerare quelli che possono influenzare le persone che si identificano come lesbiche, gay, bisessuali, transgender e queer/domande (LGBT +). Questi pregiudizi possono avere gravi conseguenze sulla loro sicurezza, privacy, accesso alla sanità, opportunità di lavoro e altro ancora.

Tuttavia, esistono diversi meccanismi per individuare, attenuare e prevenire la perpetuazione di questi pregiudizi nei sistemi IA. In questo articolo sto indagando sull'efficacia di questi meccanismi in pratica.

Uno dei meccanismi per individuare i pregiudizi dell'IA nei confronti delle popolazioni LGBT è il controllo. Ciò include la verifica del codice algoritmo e delle fonti di dati per vedere se riflettono la diversità della popolazione a cui sono destinati a servire.

Ad esempio, una società che sviluppa un'applicazione di incontri online può assumere un consulente indipendente per valutare se i suoi algoritmi includono termini legati all'identità di genere o all'orientamento sessuale che potrebbero escludere alcuni utenti. Se così fosse, il consulente consiglierebbe di modificare l'algoritmo per renderlo più inclusivo. Un altro metodo di rilevamento è il test con diversi gruppi. Uno studio pubblicato su Nature mostra come un team di ricercatori ha testato un modello di classificazione delle immagini utilizzando i tratti del viso e ha scoperto che ha fatto previsioni imprecisate sull'orientamento sessuale sulla base di stereotipi come barbe o orecchini. I risultati hanno spinto i ricercatori a riqualificare il modello con un insieme di dati più ampio e più rappresentativo.

Un altro approccio per affrontare il problema del pregiudizio dell'IA consiste nell'analisi dell'equità. Ciò include la misurazione dell'impatto di un processo decisionale specifico su diversi gruppi di popolazione. Uno studio condotto dall' ProPublica ha dimostrato che il sistema di selezione del personale di Amazon è meno frequente nel selezionare le candidate perché preferisce i curriculum con la parolà esecutivo "a coloro che non ne hanno uno. Analizzando il processo decisionale, lo studio ha evidenziato un potenziale pregiudizio nei confronti delle donne. Di conseguenza, Amazon ha aggiornato il suo sistema eliminando il termine «esecutivo». L'analisi della giustizia può anche essere usata per individuare pregiudizi in altri settori, come la giustizia penale, la sanità e l'alloggio.

Per attenuare il pregiudizio dell'IA, una delle strategie è utilizzare spiegazioni controfattiche. Spiegano perché è stata presa una decisione concreta e suggeriscono alternative che potrebbero portare a un risultato diverso.

Ad esempio, se un creditore ipotecario utilizza l'IA per determinare il credito, deve fornire spiegazioni sulle decisioni che non sono favorevoli per i richiedenti LGBT.

Per esempio, una spiegazione controfattica potrebbe dire: «Se il tuo reddito fosse 500 dollari più alto, avresti diritto a questo prestito». Un'altra strategia è quella di applicare restrizioni ai dati di input e ai parametri algoritmici.

Ad esempio, una banca può limitare l'uso di un linguaggio specifico di genere nella definizione del diritto di prestito.

Inoltre, ci sono alcuni passi che le aziende possono intraprendere per prevenire innanzitutto il pregiudizio dell'IA. Un approccio è quello di raccogliere informazioni demografiche sui propri utenti o clienti. Aziende come Google e Facebook chiedono ai propri sviluppatori di considerare la diversità nello sviluppo dei prodotti, il che aiuta a garantire che i loro sistemi non escludono involontariamente determinati gruppi. Un'altra strategia consiste nell'utilizzare diversi set di dati durante l'apprendimento del modello per ridurre il rischio di stereotipi.

Infine, le aziende possono integrare le linee guida etiche nei processi di sviluppo dell'IA per garantire equità e trasparenza durante tutto il processo.

Sebbene questi meccanismi esistano per identificare, mitigare e prevenire i pregiudizi dell'IA nei confronti delle popolazioni LGBT, la loro efficacia dipende da diversi fattori. Alcuni studi dimostrano che il controllo da solo non può eliminare completamente tutte le forme di discriminazione, perché i pregiudizi possono essere sottili e difficili da definire. Altri studi dimostrano che l'ispezione può essere utile, ma richiede esperienza sia nell'apprendimento automatico che nella giustizia sociale per essere efficace. Le spiegazioni controfattiche non possono sempre essere accurate o complete, e le restrizioni possono portare a nuovi rischi se troppo restrittive. L'inclusione nel processo di progettazione può anche richiedere risorse e personale che capisca come le diverse identità si sovrappongono alla tecnologia.

In generale, i leader del settore, i politici e i gruppi di interesse dovranno impegnarsi costantemente per garantire che i sistemi di IA servano tutti allo stesso modo e in modo equo.

Quali sono i meccanismi per individuare, mitigare e prevenire i pregiudizi dell'IA nei confronti delle popolazioni LGBT e quanto sono efficaci in pratica?

Nonostante il crescente riconoscimento delle comunità lesbiche, gay, bisessuali, transgender (LGBT), ci sono ancora pregiudizi nell'intelligenza artificiale. Questi pregiudizi si manifestano come pregiudizi basati sull'identità di genere, l'orientamento sessuale, la razza, l'età, l'etnia, la religione, l'aspetto, ecc., che possono essere incorporati nei dati didattici utilizzati per l'apprendimento degli algoritmi. Diversi ricercatori hanno proposto diversi meccanismi per affrontare il pregiudizio dell'IA nei confronti delle popolazioni LGBT.