Logo

ZeroOpposite

Contact Us
Search

SESSUALITÀ/SESSUALITÀ E AI: COME ALGORITMI POSSONO PORTARE A PREGIUDIZI CONTRO LE MINORANZE itEN FR DE PL TR PT RU AR JA CN ES

Gli algoritmi sono programmi informatici che possono svolgere determinate attività senza la partecipazione umana. Funzionano analizzando grandi quantità di dati e trovando schemi decisionali. Questi schemi possono basarsi su tendenze storiche o probabilità statistiche. Gli algoritmi sono stati utilizzati per identificare il rischio di credito, prevedere il tempo, ottimizzare le catene di approvvigionamento, raccomandare la musica, individuare le frodi e persino diagnosticare le malattie.

Tuttavia, essi perpetuano anche pregiudizi sociali e discriminano gruppi minoritari. Questo articolo studierà come gli algoritmi riproducono i pregiudizi morali contro le identità non conformi e come contrastare questi pregiudizi.

Uno dei modi in cui gli algoritmi riproducono i pregiudizi morali è l'uso di classificatori binari. Classificatori binari dividono le persone in categorie come uomo/donna, nero/bianco, etero/gay, abed/disabile, ecc. Essi assegnano ad ogni categoria un insieme di caratteristiche che possono corrispondere o non corrispondere alla realtà.

Ad esempio, un algoritmo progettato per individuare i criminali può classificare qualsiasi persona con tatuaggi come criminale, indipendentemente dal comportamento effettivo. Ciò potrebbe portare a mirare in modo sproporzionato a determinati gruppi, compresi quelli che non corrispondono ai ruoli tradizionali di genere.

Un altro modo in cui gli algoritmi riproducono pregiudizi morali è l'uso dell'apprendimento automatico. L'apprendimento automatico include l'apprendimento dei modelli su set di dati estesi e consente loro di imparare dagli errori passati.

Tuttavia, se il dataset è incompleto o spostato verso uno stesso gruppo, il modello avrà risultati imprecisi per altri gruppi.

Ad esempio, la tecnologia di riconoscimento facciale spesso identifica erroneamente le donne di colore perché sono state addestrate principalmente sugli uomini bianchi. Allo stesso modo, gli algoritmi di assunzione possono favorire candidati con nomi comuni come John Smith piuttosto che candidati con nomi più etnici.

Per combattere questi pregiudizi, dobbiamo aumentare la varietà di dataset utilizzati dagli algoritmi. Dobbiamo raccogliere e analizzare i dati provenienti da gruppi sottorappresentati, tra cui persone di colore, persone LGBT +, immigrati, disabili e minoranze religiose. Dobbiamo anche insegnare ai modelli su vari esempi, in modo che riconoscano tutti i tipi di esperienza umana.

Inoltre, dobbiamo verificare che gli algoritmi esistenti siano precisi e equi, assicurandoci che nessun gruppo sia discriminato.

Infine, dobbiamo rendere le aziende responsabili quando i loro prodotti perpetuano stereotipi dannosi. Con questi passi, possiamo creare una società più equa, dove ogni individuo abbia uguale accesso alle opportunità e alle risorse.