In questo articolo si discute di come il design dei sistemi di intelligenza artificiale (IA) possa codificare involontariamente i presupposti eteronormativi, che sono convinzioni su ruoli di genere e norme sessuali che riflettono valori tradizionali, spesso patriarcali. Sta esplorando i diversi modi in cui tali pregiudizi possono manifestarsi nella tecnologia dell'IA e propone potenziali strategie per identificarli e correggerli.
L'eteronormità si riferisce all'aspettativa che le persone aderiscano a determinati ruoli di genere e intraprendano relazioni romantiche monogamiche ed eterosessuali, con gli uomini solitamente in posizione dominante all'interno di questi accordi. Questi presupposti sono profondamente radicati in molte culture e società di tutto il mondo e sono stati sostenuti da secoli di socializzazione e elaborazione ideologica. Negli ultimi anni, tuttavia, è aumentato il riconoscimento degli effetti nocivi delle strutture eteronormative sulle persone che non sono conformi a queste norme, con conseguente aumento del numero di richieste di smantellamento.
Una delle aree in cui questo problema è particolarmente grave è lo sviluppo di sistemi di intelligenza artificiale che dipendono in gran parte da set di dati e algoritmi che possono basarsi su pregiudizi culturali preesistenti.
Ad esempio, i modelli di apprendimento automatico utilizzati per generare chat-bot o assistenti virtuali possono includere modelli linguistici e risposte che suggeriscono una struttura binaria di genere, perpetuando stereotipi sulla virilità e la femminilità. Allo stesso modo, il software di riconoscimento facciale può lottare per identificare con precisione i sessi non nativi, escludendoli da servizi e risorse importanti.
Fortunatamente, esistono diverse metodologie per individuare e correggere questi pregiudizi nei sistemi di intelligenza artificiale. Un approccio consiste nell'effettuare un'analisi della sensibilità per valutare come i diversi gruppi demografici possono interagire con il sistema e individuare qualsiasi potenziale zona cieca o area di discriminazione. Un'altra strategia comprende lo sviluppo di set di dati alternativi che riflettono prospettive ed esperienze più diverse, come le personalità transgender o intersex.
I ricercatori possono inoltre utilizzare metodi come l'apprendimento competitivo per esporre i modelli di IA a scenari che sfidano le loro principali ipotesi, consentendo loro di adattarsi e svilupparsi in modo appropriato.
In generale, affrontare il problema dello spostamento eteronormativo nel design dell'IA richiede sia la consapevolezza della sua onnipresenza che la creatività nel definire soluzioni efficaci. Dando la priorità all'inclusione e alla giustizia nello sviluppo tecnologico, possiamo contribuire a creare un futuro in cui tutti possano partecipare pienamente alla nostra società sempre più digitale senza temere discriminazioni o marginalizzazioni.
Come può il design dei sistemi IA codificare involontariamente i presupposti eteronormativi e quali sono le metodologie per individuare e correggere questi pregiudizi?
Come può il design dei sistemi IA codificare involontariamente i presupposti eteronormativi e quali sono le metodologie per individuare e correggere questi pregiudizi?