Logo

ZeroOpposite

Contact Us
Search

DISCRIMINAZIONE BASATA SULL'ORIENTAMENTO SESSUALE NELLE APPLICAZIONI DI INCONTRI ONLINE CHE RIGUARDANO GLI UTENTI LGBT itEN FR DE PL TR PT RU CN ES

3 min read Lesbian

Lo spostamento algoritmico è un termine usato per descrivere la tendenza degli algoritmi o dei set di istruzioni utilizzati per prendere decisioni basate sull'input, per ottenere risultati che favoriscono ingiustamente determinati gruppi di persone rispetto ad altri. Questo può accadere in molti contesti, anche quando si tratta di social media come Facebook e Twitter.

Ad esempio, se un algoritmo è progettato per raccomandare post basati sull'attività degli utenti, può eventualmente consigliare post da uomini diretti, cisgender più spesso che da donne o persone LGBT. Questo può creare un loop di feedback quando gli utenti vedono meno post da questi gruppi marginali, con conseguente minore interazione con essi, aumentando così il pregiudizio dell'algoritmo.

Tuttavia, quando si tratta di applicazioni per incontri, questo problema diventa molto più insidioso. Le applicazioni di incontri si basano in gran parte su algoritmi per selezionare gli utenti in base alle loro preferenze, ma raccolgono anche molti dati personali sugli utenti. Questi dati possono includere cose come l'età, il sesso, l'orientamento sessuale, la posizione e anche l'appartenenza politica. Utilizzando questi dati, l'applicazione potrebbe cercare di prevedere quali corrispondenze interessano gli utenti.

Tuttavia, se l'applicazione è pregiudiziale nei confronti delle persone LGBT, può mostrare loro meno partner potenziali che condividono la loro sessualità, il che può limitare le loro possibilità e portare alla frustrazione.

Il problema va oltre la semplice conoscenza delle applicazioni. In realtà, è stato scoperto che il pregiudizio algoritmico penetra in molti aspetti della vita quotidiana, dai sistemi di ricerca di lavoro ai punti di credito. E anche se alcuni di questi pregiudizi possono sembrare benigni, possono avere gravi conseguenze per gli utenti LGBT.

Ad esempio, un algoritmo che favorisce gli utenti diretti in un sistema di ricerca di lavoro può rendere difficile per le persone LGBT trovare opportunità di lavoro. Allo stesso modo, un algoritmo che discrimina le persone transgender nel determinare la capacità creditizia può rendere più difficile per loro ottenere prestiti o altre forme di assistenza finanziaria.

Uno dei modi per combattere il pregiudizio algoritmico è l'apprendimento degli algoritmi stessi. I sistemi di apprendimento automatico possono essere insegnati a riconoscere gli schemi e a prendere decisioni basate su questi schemi, per cui gli sviluppatori possono creare programmi progettati per ridurre al minimo i pregiudizi. Un'altra opzione è quella di garantire che i dati utilizzati per gestire questi algoritmi siano diversi e rappresentativi di tutti i gruppi di persone.

Infine, gli utenti possono esprimersi quando vedono un pregiudizio algoritmico e segnalarli alle aziende responsabili. Lavorando insieme, possiamo creare un ambiente online più equo per tutti.

Come fa il pregiudizio algoritmico a discriminare gli utenti LGBT in modalità offline?

Il pregiudizio algoritmico si riferisce al processo attraverso il quale gli algoritmi informatici sono programmati per prendere decisioni che possono essere pregiudizievoli contro determinati gruppi di persone sulla base della loro razza, sesso, orientamento sessuale, età, disabilità o altri fattori. Nel contesto delle applicazioni di incontri online, ciò significa che è probabile che l'algoritmo dell'applicazione mostrerà agli utenti LGBT meno coincidenze potenziali rispetto agli utenti non LGBT, anche se hanno preferenze e interessi simili.