Logo

ZeroOpposite

Contact Us
Search

STUDIARE COME GLI ALGORITMI PERPETUANO LE NORME REPRESSIVE CONTRO LE VOCI A QUATTRO NEI CONSIGLI DI RELAZIONE ONLINE itEN FR DE PL TR PT RU AR JA CN ES

3 min read Queer

Internet è lodato per la sua capacità di riunire le persone da tutto il mondo e creare un ambiente in cui tutti possono votare.

Tuttavia, non è sempre così. Gli algoritmi che governano internet tendono a riprodurre i pregiudizi sociali contro le voci strane, limitandone la visibilità e rendendoli difficili da ascoltare. In questo articolo esamineremo come gli algoritmi perpetuano questi pregiudizi e cosa si può fare.

Per iniziare, definite il termine «quire». Quire si riferisce a chiunque non si identifichi come un etero o un cisgender. Questo include lesbiche, gay, bisessuali, transgender, non nativi, intersex e persone asessuali, tra gli altri. Copre anche le persone che si identificano come pansessuali, poliammori, kinka e tutto ciò che va oltre le normative tradizionali. Questi gruppi affrontano discriminazioni e molestie ogni giorno, anche online.

Gli algoritmi funzionano scansionando il testo e analizzando i modelli. Sono progettati per fornire agli utenti risultati appropriati in base a ciò che cercano.

Tuttavia, se un algoritmo è addestrato su dati che definiscono le priorità in termini diretti, bianchi, maschili, non riconosce voci strane.

Ad esempio, se un utente cerca un «consiglio di relazione», l'algoritmo può mostrare articoli scritti da uomini su incontri con donne, perché questi sono gli articoli più utilizzati. Questo esclude voci strane che possono portare a disinformazione e ulteriore isolamento.

Un altro modo in cui gli algoritmi aumentano i pregiudizi sociali è la pubblicità mirata. Le aziende utilizzano algoritmi per analizzare la cronologia delle visite e il comportamento degli utenti per mostrare annunci adattati ai loro interessi. Se l'algoritmo identifica qualcuno come etero, può mostrare pubblicità per abiti da sposa o prodotti per bambini. Al contrario, se un algoritmo identifica qualcuno come un queer, può mostrargli la pubblicità di eventi di WOLFTQ + o siti di incontri. Questo crea un falso senso di normalità intorno all'eteronormità, rendendo difficile il legame tra persone strane.

Infine, gli algoritmi possono promuovere stereotipi dannosi su persone strane. I motori di ricerca possono offrire articoli che perpetuano gli stereotipi negativi sulle persone transgender, ad esempio i bambini transgender sono confusi nella loro identità di genere o le persone transgender sono essenzialmente pericolose. Questo conferma l'idea che essere un queer non è normale e questo dovrebbe essere evitato.

Quindi, come possiamo risolvere la cosa? Una soluzione è la diversificazione dei dati utilizzati per l'apprendimento degli algoritmi. Aziende come Google hanno intrapreso passi in questa direzione, tra cui la visualizzazione di immagini più numerose nei risultati di ricerca e l'aggiunta di tag per l'identificazione dei contenuti LGBTQ +.

Tuttavia, questo non risolverà il problema. Le voci di Quir devono essere esplorate attivamente e incluse negli spazi online. Ciò significa creare piattaforme specifiche per i quiri, dove possono condividere liberamente le loro opinioni senza temere la censura o la discriminazione. Ciò significa anche incoraggiare gli alleati ad aumentare le voci strane sui social media e altrove.

In conclusione, gli algoritmi non sono neutrali; riflettono i pregiudizi della società, sia consapevoli che inconsapevoli. Riconoscendolo, possiamo prendere misure per rendere internet uno spazio più sicuro per tutte le persone, indipendentemente dalla loro sessualità o identità di genere. Lavoriamo insieme per creare un mondo in cui tutti abbiano una voce, una voce ascoltata e rispettata.