Logo

ZeroOpposite

Contact Us
Search

IN CHE MODO GLI ALGORITMI AUMENTANO I PREGIUDIZI SOCIALI CHE EMARGINANO I QUIR VOICE ONLINE? itEN FR DE PL TR PT RU AR JA CN ES

3 min read Queer

In che modo gli algoritmi aumentano i pregiudizi sociali che emarginano i quir voice online?

Internet è sempre più accessibile alle persone di tutto il mondo, permettendo loro di comunicare con altre persone che condividono interessi ed esperienze simili.

Tuttavia, nonostante questi progressi, alcuni gruppi devono ancora affrontare discriminazioni e pregiudizi a causa della loro identità. I queer-individui sono tra i più colpiti da questi pregiudizi, perché spesso la società li considera una deviazione dalla norma. In questo modo, cercano di trovare luoghi in cui esprimersi apertamente senza essere giudicati o derisi. Qui entrano in gioco gli algoritmi; creano opportunità di connessione, ma anche di perpetuare gli stereotipi dannosi e l'isolamento. Gli algoritmi rafforzano i pregiudizi sociali che emarginano le voci queer online attraverso pubblicità targate, filtraggio algoritmico e risultati di ricerca personalizzati.

La pubblicità targata include l'utilizzo di dati personalizzati per la visualizzazione di annunci adattati alla demografia specifica.

Ad esempio, se un'azienda vuole vendere prodotti legati all'identità di genere, può essere mirato agli utenti transgender sulla base della loro cronologia di visite e attività sui social media. Sebbene questo approccio aumenti la frequenza delle transizioni, rafforza anche l'idea che certi gruppi di persone sono meno desiderabili di altri. Manda un messaggio dicendo che la transessualità è qualcosa di speciale o di nicchia, non una parte della vita quotidiana, che favorisce lo stigma e l'emarginazione. Lo stesso vale per le applicazioni di incontri che selezionano gli utenti sulla base dell'orientamento sessuale; mentre queste piattaforme offrono spazi sicuri per le persone LGBT TQ + per incontrare partner simili, isolano ulteriormente le persone eterosessuali che potrebbero non conoscere o non essere sicuri di relazioni non steronormative.

Il filtraggio algoritmico si basa sui metodi di apprendimento automatico per controllare i contenuti per le preferenze di ciascun utente. Purtroppo, questo processo può escludere diverse prospettive, poiché gli algoritmi suggeriscono che gli spettatori vogliono vedere sulla base delle interazioni precedenti con materiali simili.

Ad esempio, un algoritmo può consigliare un video di release solo agli spettatori, perché è tutto ciò che hanno visto in passato. Poi gli individui queer diventano invisibili quando cercano questi argomenti, perché l'algoritmo suggerisce che sappiano già tutto ciò che devono sapere. Questo crea un ciclo in cui solo le narrazioni cisgenerative ed eterosessuali rimangono visibili su Internet, silenziando le voci alternative.

I risultati di ricerca personalizzati funzionano allo stesso modo, fornendo i risultati più adatti agli interessi individuali, invece di dare le stesse opportunità alle diverse prospettive. Se qualcuno cerca una storia d'amore lesbica, probabilmente vedrà articoli che coinvolgono lesbiche bianche e donne cisgender, piuttosto che una varietà di spettacoli. Questa eccezione rafforza l'idea che l'estraneità sia accettabile solo se soddisfa le aspettative della società, limitando la visibilità al di fuori degli ideali fondamentali.

In conclusione, gli algoritmi rafforzano i pregiudizi sociali che emarginano le voci quir online attraverso pubblicità mirate, filtraggio algoritmico e risultati di ricerca personalizzati. Questi processi creano un ciclo in cui si vedono solo certe identità, aumentando lo stigma e la discriminazione nei confronti di coloro che non rientrano nelle normative tradizionali. Per affrontare questo problema, le aziende devono garantire l'inclusione su piattaforme diverse, offrendo risorse adattate a tutte le caratteristiche demografiche e evitando di ipotizzare ciò che gli utenti vogliono vedere.

In che modo gli algoritmi aumentano i pregiudizi sociali che emarginano i quir voice online?

Le persone spesso suggeriscono che la tecnologia è imparziale, ma riflette valori e convinzioni umane. L'algoritmo alla base delle piattaforme Internet con cui interagiamo si impara regolarmente sui comportamenti e sulle preferenze degli utenti nel corso del tempo. Ad esempio, se alcuni tipi di contenuti e stili di comunicazione sono più popolari tra le persone eterosessuali di altri, questi pattern saranno riflessi nei sistemi di raccomandazione utilizzati da queste piattaforme.