Logo

ZeroOpposite

Contact Us
Search

RIVELAZIONE DI COME IL PREGIUDIZIO ALGORITMICO INFLUISCE SU QUATTRO VOCI: UNA VISIONE PROFONDA DEI PREGIUDIZI SOCIALI E DEGLI SCENARI DEL MONDO REALE itEN FR DE PL TR PT RU AR JA CN ES

3 min read Queer

Gli algoritmi sono programmi informatici in grado di elaborare i dati per soddisfare le sfide. Lavorano secondo le formule matematiche e la logica. Gli algoritmi sono utilizzati ovunque, dai motori di ricerca ai canali dei social network e alle applicazioni di incontri online. Ma in che modo gli algoritmi riflettono i pregiudizi sociali che emarginano le voci queer?

In questo articolo sto indagando su come i pregiudizi algoritmici influenzano i quir-umani e come perpetuano le disuguaglianze. Farò anche esempi di scenari reali in cui persone strane sono state discriminate a causa di pregiudizi algoritmici.

Infine, offrirò alcune soluzioni per ridurre il pregiudizio algoritmico.

Pregiudizio algoritmico

Gli algoritmi sono sviluppati da persone che possono insabbiare i propri pregiudizi nel codice. Ciò significa che gli algoritmi possono riflettere le norme sociali e i pregiudizi che spesso emarginano le voci quir.

Ad esempio, un sito di acquisti online può mostrare a uomini e donne pubblicità diverse basate su stereotipi di genere su ciò che devono comprare. Allo stesso modo, l'algoritmo di domanda di lavoro può preferire i candidati diretti piuttosto che bizzarri, perché l'azienda ritiene che l'eterosessualità sia più comune nel settore.

Esempi di offset algoritmici

Uno degli esempi recenti di offset algoritmico è stato quello in cui Tinder ha presentato le valutazioni «Elo» per corrispondere agli utenti. La valutazione di Elo deve misurare la compatibilità tra due persone.

Tuttavia, è emerso che l'algoritmo favoriva gli individui bianchi, cisgenderici, eteronormativi, anche se tali caratteristiche non facevano parte dei criteri di conformità. Di conseguenza, molte persone strane si sono sentite escluse dalla piattaforma e l'hanno abbandonata.

Un altro esempio è la tecnologia di riconoscimento facciale, che è stata dimostrata come non corretta identificazione di persone trans e non nere come sesso assegnato alla nascita. Questo può portare a situazioni pericolose in cui le forze dell'ordine usano dati errati per arrestare o perseguitare qualcuno.

Soluzioni per ridurre il pregiudizio algoritmico

Per ridurre il pregiudizio algoritmico, le aziende devono essere trasparenti sul modo in cui funzionano i loro algoritmi e raccogliere una varietà di feedback da parte degli utenti. Devono anche assumere sviluppatori con diverse esperienze e opinioni per garantire che tutte le voci siano rappresentate nel processo di progettazione.

Infine, devono implementare misure di controllo qualità affidabili per verificare i pregiudizi prima del rilascio di nuovi prodotti o aggiornamenti.

In conclusione, gli algoritmi possono perpetuare i pregiudizi sociali contro le persone strane, riflettendo norme e pregiudizi. Le aziende devono prendere misure per ridurre questo pregiudizio, essendo trasparente nei confronti dei loro algoritmi e includendo diversi punti di vista sullo sviluppo. Se vogliamo creare una società più equa, dobbiamo affrontare il problema dello spostamento algoritmico.

In che modo gli algoritmi riflettono i pregiudizi sociali che emarginano le voci queer?

Uno dei modi in cui gli algoritmi possono riflettere i pregiudizi sociali è il loro sviluppo e la loro realizzazione. Poiché gli algoritmi sono creati dagli esseri umani, possono includere alcuni valori e convinzioni che sono comuni nella società. Ciò significa che hanno più probabilità di avere un vantaggio rispetto ad altri, come l'eteronormaticità o cisgenderismo.