Logo

ZeroOpposite

Contact Us
Search

PERICOLI DI SPOSTAMENTO ALGORITMICO IN AI PER LA COMUNITÀ LGBT. itEN FR DE PL TR PT RU AR JA CN ES

4 min read Lesbian

Pregiudizi algoritmici in IA

I sistemi di IA sono sempre più utilizzati per prendere decisioni che influenzano la vita delle persone, tra cui l'assunzione, l'approvazione di prestiti, le richieste di alloggio e i risultati della giustizia penale.

Tuttavia, gli studi dimostrano che questi algoritmi spesso perpetuano la discriminazione sistemica esistente, soprattutto nei confronti di gruppi marginali come la comunità LGBT. Uno dei motivi di questo è il pregiudizio algoritmico che si verifica quando un algoritmo fa previsioni sbagliate sulla base delle caratteristiche demografiche e non del comportamento effettivo o delle prestazioni. Ciò potrebbe portare ad un trattamento ingiusto di persone appartenenti a gruppi specifici, inclusi membri della comunità LGBT.

In che modo gli algoritmi possono perpetuare la discriminazione nei confronti delle comunità LGBT?

Uno dei modi in cui gli algoritmi possono perpetuare la discriminazione nei confronti delle comunità LGBT è il pregiudizio dei dati. Se i dati di apprendimento utilizzati per creare un algoritmo includono modelli storici di discriminazione, può involontariamente codificare questi pregiudizi nel processo decisionale.

Ad esempio, se un algoritmo di assunzioni è addestrato su curriculum di aziende che hanno storicamente discriminato gay e transessuali, potrebbe erroneamente suggerire che questi gruppi sono meno qualificati di altri. Allo stesso modo, se l'algoritmo del credito viene addestrato sui dati dei creditori che impongono tassi di interesse più elevati alle coppie dello stesso sesso, potrebbe non prevedere correttamente che è più probabile che permetta il default dei prestiti.

L'altro modo in cui gli algoritmi possono perpetuare la discriminazione è il pregiudizio della scelta. Un algoritmo può preferire un gruppo selezionando solo i punti dati che corrispondono a un profilo specifico.

Ad esempio, un programma di intelligenza artificiale progettato per rilevare affermazioni fraudolente può essere focalizzato esclusivamente sul linguaggio di genere, ad esempio «lui» e «lei», che possono influenzare in modo sproporzionato le persone transgender.

Infine, gli algoritmi possono anche essere pregiudizievoli a causa dei presupposti dei loro designer su ciò che rappresenta un successo o un fallimento.

Ad esempio, un algoritmo creato da uomini cisgender diretti può dare priorità a tratti legati alla virilità, come la pressione, anche se queste qualità non sono necessarie per il lavoro corrente.

Riduzione dello spostamento algoritmico

Ci sono più strutture per rilevare e ridurre lo spostamento algoritmico nell'IA. Un approccio consiste nell'utilizzo di strumenti di verifica che monitorino il modo in cui gli algoritmi prendono le decisioni e identificano qualsiasi impatto differente in base alle caratteristiche demografiche. Un altro metodo è quello di raccogliere e etichettare dati di apprendimento più diversi, in modo che gli algoritmi possano imparare a riconoscere i modelli di comportamento piuttosto che basarsi su modelli di discriminazione storica.

I ricercatori possono inoltre creare nuovi modelli che tengano conto delle differenze sistematiche tra i gruppi e testarli utilizzando scenari reali.

Per ridurre lo spostamento delle scelte, gli sviluppatori possono includere più prospettive durante la creazione di algoritmi e insegnare ai propri modelli a riconoscere sfumature e complessità. Essi possono anche includere vincoli di equità nel proprio codice, come l'esigenza di uguale rappresentazione in tutti i dati demografici prima di fare previsioni.

Infine, gli sviluppatori possono valutare se adattano i propri modelli a gruppi specifici di popolazione, testandoli su set di dati invisibili e confrontandoli con processi decisionali umani.

Uso responsabile degli algoritmi

L'utilizzo responsabile dell'IA richiede un'attenta considerazione dei suoi potenziali pregiudizi e del modo in cui essi possono perpetuare i sistemi oppressivi esistenti.Riconoscendo e affrontando questi problemi, possiamo creare una tecnologia che beneficia ugualmente tutti, inclusi i membri della comunità LGBT. Poiché gli algoritmi sono sempre più diffusi nelle nostre vite, è fondamentale che non rafforzino le strutture di potere esistenti e che invece ci aiutino ad andare verso una società più equa.

In che modo il pregiudizio algoritmico nell'IA può aumentare la discriminazione sistemica delle comunità LGBT e quali sono le cornici per identificare e mitigare in modo responsabile questi pregiudizi?

In che modo il pregiudizio algoritmico nell'IA può aumentare la discriminazione sistemica delle comunità LGBT e quali sono le cornici per identificare e mitigare in modo responsabile questi pregiudizi?