I rappresentanti LGBT da secoli hanno subito discriminazioni in vari aspetti della loro vita a causa dell'orientamento sessuale e dell'identità di genere.
Tuttavia, i recenti progressi nella tecnologia dell'intelligenza artificiale hanno portato a nuovi problemi per questa comunità. Gli algoritmi che gestiscono molti processi decisionali sono ora in grado di generare risultati basati su modelli di dati che possono potenzialmente perpetuare i pregiudizi. Ciò ha sollevato preoccupazioni circa il potenziale ruolo di questi algoritmi nel rafforzare i pregiudizi anti-LGBT esistenti, che potrebbero portare a un'ulteriore esclusione da opportunità, servizi e risorse. In questo articolo esamineremo i pregiudizi strutturali e algoritmici esistenti nei sistemi di intelligenza artificiale e discuteremo le strategie per mitigarli efficacemente.
Pregiudizio strutturale
Uno dei pregiudizi strutturali che esistono nei sistemi di intelligenza artificiale è la mancanza di rappresentanza delle persone LGBT nei set di apprendimento. La maggior parte dei dati di apprendimento utilizzati per sviluppare algoritmi vengono raccolti da popolazioni eteronormative, portando a una prospettiva di mondo distorta che non riflette esattamente le diverse esperienze delle persone LGBT.
Ad esempio, i modelli linguistici formati in un corpo di testo possono contenere un linguaggio che aumenta gli stereotipi negativi o i termini offensivi nei confronti di persone LGBT che possono influenzare il modo in cui interagiscono con il sistema. La mancanza di una rappresentanza delle persone LGBT nei dati di apprendimento significa anche che i sistemi possono non riconoscere le esigenze e le preferenze di questa comunità, portando a raccomandazioni e servizi non ottimali.
Offset algoritmico
Un altro tipo di offset nei sistemi IA deriva dall'uso di segni discriminatori. Questi includono variabili come la razza, l'età, il sesso, la posizione e lo status socio-economico, tutto ciò può contribuire a risultati inefficaci quando utilizzato in combinazione con altri fattori.
Ad esempio, un datore di lavoro può utilizzare un algoritmo per testare i candidati al lavoro in base a specifiche competenze, ma se il loro algoritmo è programmato in favore di candidati con esperienza di lavoro simile a quelli precedenti (ovvero uomini bianchi), questo può escludere i candidati LGBT qualificati. Allo stesso modo, le applicazioni di incontri possono visualizzare solo corrispondenze eterosessuali per gli utenti, escluse le persone strane dalla ricerca di partner compatibili.
Strategie di mitigazione
Per affrontare questi problemi, è possibile implementare diverse strategie per garantire che i sistemi di intelligenza artificiale siano progettati in base all'inclusione:
1. Aumento della rappresentanza: un modo per mitigare i pregiudizi strutturali è aumentare la rappresentanza delle persone LGBT nei dataset di apprendimento. Le aziende devono cercare di diversificare la propria forza lavoro e la propria base clienti, garantendo che i loro prodotti riflettano un'ampia gamma di esperienze e prospettive. Questo è possibile attraverso pratiche mirate di assunzione, partnership con organizzazioni che rappresentano comunità sottorappresentate e raccolta di dati da diverse popolazioni.
2. Controllo regolare dei modelli: È fondamentale monitorare costantemente le prestazioni dei sistemi di IA per individuare eventuali pregiudizi verso le persone LGBT. Questo include la valutazione regolare degli algoritmi utilizzando criteri oggettivi quali indicatori di precisione, metriche di errore e alberi di soluzioni. Identificando e eliminando le differenze in un primo momento, le aziende possono prevenire discriminazioni sistemiche.
3. Le organizzazioni devono fornire un'educazione continua e iniziative di sensibilizzazione per promuovere la diversità e l'inclusione nei loro gruppi.Ciò include la formazione del personale su come riconoscere ed evitare il linguaggio e il comportamento pregiudizievoli e fornire risorse a coloro che possono essere discriminati o perseguitati.
4. Identificatori di spostamento esplicito: per risolvere il problema dello spostamento algoritmico, gli sviluppatori possono utilizzare identificatori espliciti, quali età, sesso e orientamento sessuale, per escludere determinate variabili durante le decisioni.
Ad esempio, il datore di lavoro può creare una descrizione del posto che indica «nessuna preferenza» per l'orientamento sessuale e non affidarsi esclusivamente al curriculum del candidato. Analogamente, le applicazioni di incontri possono consentire agli utenti di filtrare le corrispondenze in base a specifiche preferenze anziché basarsi esclusivamente sulle impostazioni predefinite.
Infine, le distorsioni strutturali e algoritmiche nell'intelligenza artificiale rappresentano una minaccia significativa per l'accesso delle persone LGBT alle opportunità, ai servizi e alle risorse. Le aziende devono agire attivamente per mitigare questi pregiudizi aumentando la rappresentanza, verificando regolarmente i modelli, promuovendo l'apprendimento della diversità e introducendo espliciti identificatori dei pregiudizi nei loro sistemi. In questo modo, possono garantire che i sistemi di IA siano progettati sulla base dell'inclusione, portando a risultati più equi per tutti.
Quali anomalie strutturali e algoritmiche nell'intelligenza artificiale perpetuano la discriminazione contro le persone LGBT e come possono essere efficacemente mitigate?
Le deviazioni strutturali e algoritmiche diffuse nei sistemi di intelligenza artificiale (intelligenza artificiale) possono creare barriere alla rappresentazione delle persone LGBT nei set di dati utilizzati per l'apprendimento di questi modelli di IA. Questa mancanza di rappresentanza potrebbe portare a previsioni e decisioni imprecisate dai sistemi di IA, che potrebbero aggravare ulteriormente la discriminazione nei loro confronti.