La tecnologia di intelligenza artificiale ha modificato il modo in cui le aziende interagiscono con i clienti. Una delle applicazioni dell'IA è l'identificazione di genere quando può determinare se una persona è un uomo o una donna in base al suo aspetto o comportamento.
Tuttavia, si teme che questi sistemi possano aumentare i pregiudizi sociali sull'identità di genere e sugli stereotipi. Ciò potrebbe avere gravi conseguenze per i gruppi marginali che già subiscono discriminazioni. In questo articolo si considera come i sistemi di IA rischino di aumentare i pregiudizi sociali nell'identificazione di genere e si discute di come mitigare il problema.
Per iniziare, gli algoritmi IA si basano su grandi set di dati per imparare da soli. Questi set di dati riflettono spesso i pregiudizi esistenti nella società, il che significa che possono essere perpetuati nella categorizzazione o nella previsione dell'identità di genere.
Ad esempio, un software di riconoscimento facciale che utilizza immagini di film e programmi televisivi tende a identificare erroneamente le donne a colori come uomini a causa della limitata rappresentanza in questi media. Allo stesso modo, gli assistenti vocali che riconoscono i pattern vocali tendono a sottovalutare le voci delle donne, perché molti dei loro accenti e dialetti non sono inclusi nei dati didattici. Inoltre, i modelli linguistici studiati sui dati testuali utilizzati nelle ricerche online e nelle pubblicazioni sui social media dimostrano anche pregiudizi nei confronti di individui non banali.
Inoltre, gli algoritmi IA imparano rilevando gli schemi dei dati. Usano questi modelli per le previsioni, ma se i dati includono informazioni pregiudiziali, le previsioni saranno anche pregiudizievoli.
Ad esempio, un sistema di intelligenza artificiale progettato per analizzare le richieste di assunzione può assegnare alle donne punti inferiori perché è stato addestrato su dati storici che dimostrano che i candidati meno qualificati erano soprattutto uomini. Lo stesso vale per altri settori come la sanità, la finanza e l'istruzione.
Inoltre, alcuni sistemi di intelligenza artificiale possono creare nuove forme di discriminazione basate sulla presunta identità di genere.
Ad esempio, un assistente virtuale programmato per fornire suggerimenti ai siti di incontri può associare gli utenti a partner potenziali in base all'espressione di genere piuttosto che all'orientamento sessuale. Questo escluderebbe le persone transgender che non rientrano nelle categorie binarie.
Tuttavia, ci sono passi che possiamo intraprendere per ridurre il rischio di un aumento dei pregiudizi sociali nei sistemi di IA. Un approccio è quello di garantire che i dati utilizzati per l'apprendimento degli algoritmi IA riflettano le diverse prospettive. Le aziende devono lavorare con le comunità marginalizzate per raccogliere dati più inclusivi e correggere adeguatamente i loro algoritmi. Devono anche testare i loro sistemi di IA utilizzando metodi come la verifica incrociata e l'analisi degli errori, per individuare qualsiasi pregiudizio involontario.
Inoltre, le aziende dovrebbero considerare la possibilità di creare misure di protezione quali i processi di convalida umana o fornire agli utenti opzioni per correggere l'identità di genere errata.
In conclusione, sebbene l'IA abbia modificato molti settori, la sua applicazione nell'identificazione di genere è preoccupante per la perpetuazione dei pregiudizi sociali esistenti. Garantendo che i dati utilizzati per l'apprendimento degli algoritmi IA riflettano le diverse prospettive, testandoli con pregiudizi e creando misure di protezione, le aziende possono attenuare il problema e rendere i loro prodotti accessibili a tutti.
In che modo i sistemi di IA rischiano di aumentare i pregiudizi sociali nella categorizzazione o nella previsione dell'identità di genere?
I sistemi di intelligenza artificiale che si basano su dati da fonti umane possono essere addestrati a riconoscere specifici attributi associati a un determinato sesso, come la lunghezza dei capelli o il tono della voce, che possono perpetuare stereotipi e pregiudizi esistenti contro determinati sessi. Inoltre, se le informazioni personali di una persona vengono utilizzate per l'apprendimento di questi algoritmi, possono riflettere i presupposti obsoleti su ruoli e identità di genere, portando a previsioni o classificazioni pregiudizievoli.