Logo

ZeroOpposite

Contact Us
Search

PERICOLO DI PREGIUDIZIO DI GENERE NELLA TECNOLOGIA AI: COME UN'INTERPRETAZIONE ERRATA PUÒ AVERE EFFETTI NOCIVI itEN FR DE PL TR PT RU AR CN ES

Le tecnologie di intelligenza artificiale sono sempre più utilizzate per interpretare e classificare l'identità di genere, ma possono essere soggette a pregiudizi sociali che possono portare a risultati sbagliati o dannosi. Questo è ciò che accade:

1) I set di dati utilizzati per l'apprendimento di algoritmi di intelligenza artificiale possono contenere pregiudizi a causa del rapporto storico con determinati sessi o orientamento sessuale.

Ad esempio, se un set di dati include immagini di donne che svolgono attività femminili tradizionali come la cucina e la pulizia, può portare un algoritmo di intelligenza artificiale per associare queste attività all'identità femminile di genere.

2) Gli algoritmi che analizzano i pattern vocali e le caratteristiche vocali per determinare l'identità di genere possono dipendere anche dagli stereotipi culturali su come suonano gli uomini e le donne. Ciò può portare all'identificazione errata o alla discriminazione di persone non nere che non corrispondono a questi stereotipi.

3) Il software di riconoscimento facciale è un altro campo in cui possono verificarsi pregiudizi di genere, soprattutto quando si tratta di riconoscere i tratti neutri di un volto o di persone transgender che non corrispondono al sesso assegnato alla nascita.

4) Oltre al sesso, gli algoritmi di intelligenza artificiale possono anche perpetuare altre forme di disuguaglianza basate su razza, età, disabilità e origine sociale ed economica.

Ad esempio, un algoritmo progettato per rilevare le emozioni nei fotogrammi di videosorveglianza può contrassegnare le persone di colore come aggressive o criminali più spesso che i bianchi.

5)

Infine, i sistemi di intelligenza artificiale sono sviluppati da persone che hanno un pregiudizio che può influire sul modo in cui programmano la propria tecnologia. Il pregiudizio sullo sviluppo dell'IA è dovuto alla scarsa rappresentanza delle donne e delle minoranze nei settori tecnologici.

Per risolvere questi problemi, i ricercatori devono lavorare per creare set di dati più diversi e insegnare agli algoritmi IA a riconoscere espressioni di genere anormali. Le aziende devono anche verificare i loro sistemi di IA per verificare i pregiudizi e introdurre misure di protezione per prevenire le discriminazioni.

In ultima analisi, la società deve sfidare il sesso e la sessualità obsoleti, in modo che tutti si sentano visti e rispettati nel nostro mondo sempre più digitale.

Come possono le tecnologie di intelligenza artificiale riprodurre i pregiudizi sociali nell'interpretazione o nella categorizzazione dell'identità di genere?

Intelligenza Artificiale (IA) si impara su grandi quantità di dati che riflettono i comportamenti umani e i pregiudizi. I sistemi di intelligenza artificiale possono quindi copiare i pregiudizi presenti nel materiale originale utilizzato per la loro formazione, inclusi quelli legati all'identità di genere.