Internet diventa un aspetto sempre più importante della vita quotidiana, soprattutto per le persone LGBT + che possono affrontare discriminazioni e pregiudizi negli spazi fisici.
Tuttavia, nonostante gli sforzi per creare spazi online più inclusivi, resta il rischio che il pregiudizio algoritmico possa aumentare i presupposti eteronormativi e favorire le disuguaglianze. Questo articolo descriverà come gli algoritmi possano privilegiare le persone cisgenderiche ed eterosessuali, anche in ambienti virtuali progettati per accogliere tutte le identità. Per farlo, discuterà il concetto di pregiudizi e di come possono manifestarsi nelle piattaforme digitali, analizzando studi di caso provenienti da applicazioni popolari come Grindr e OkCupid e raccomandazioni per creare spazi online più eguali per tutti.
In generale, questa parte cerca di mettere in luce i problemi che incontra la comunità quir nella navigazione digitale e nella socializzazione, promuovendo maggiore consapevolezza e azione. Sapendo come agiscono i pregiudizi, possiamo lavorare per creare esperienze online più inclusive che promuovano la giustizia e l'uguaglianza per tutti.
Gli algoritmi sono strumenti importanti utilizzati da molti siti web e applicazioni per ordinare le informazioni, facilitare la comunicazione e ottimizzare il lavoro degli utenti. Includono una serie di istruzioni o regole che guidano le macchine attraverso determinate attività, rendendole utili per processi automatizzati quali la previsione dei risultati di ricerca, la classificazione dei prodotti in base alle valutazioni dei clienti o la supervisione di nastri di notizie personalizzati. Anche se questi sistemi possono essere incredibilmente utili, hanno anche il potenziale di pregiudizi - preferenze involontarie ma comuni che possono ingiustamente dare un vantaggio ad alcuni gruppi su altri. Ad esempio, dal punto di vista delle conoscenze online, un algoritmo può dare priorità ai profili con parole, immagini o caratteristiche chiave specifiche, dando luogo a corrispondenze che riflettono le visioni normative del campo, della sessualità, della razza o del tipo di corpo. Quando queste ipotesi sono codificate in un software progettato per tutti, possono avere implicazioni di grande portata per coloro che cercano legami al di fuori delle normative tradizionali.
Un esempio noto è Grindr, un'applicazione popolare tra i gay, che ha affrontato critiche per il suo presunto razzismo e agismo. Secondo il rapporto 2018 del giornalista Michael Kelly, gli utenti possono ricevere meno messaggi se hanno caratteristiche «femminili» o hanno più di 35 anni. Ciò suggerisce che gli algoritmi di Grindr favoriscono determinati attributi fisici, ma escludono altri basati su criteri arbitrari. Allo stesso modo, è stato accusato di aver mostrato risultati razzialmente pregiudiziali nei risultati della comparazione, il che ha spinto la società a chiedere scusa e cambiare il suo algoritmo per risolvere il problema. In entrambi i casi, si sottolinea che la tecnologia apparentemente neutrale può perpetuare la discriminazione e la cancellazione, facendo sì che alcuni utenti si sentano marginalizzati o rifiutati in un altro ambiente progressivo.
Per creare uno spazio digitale più equo, gli sviluppatori devono prendere misure per identificare e eliminare i pregiudizi nei loro algoritmi. Una strategia consiste nella diversificazione dei dataset utilizzati per l'apprendimento dei modelli di apprendimento automatico, garantendo che un'ampia gamma di identità, esperienze e prospettive determinino i processi decisionali. Un altro approccio consiste nel promuovere la responsabilità attraverso il feedback e il coinvolgimento della comunità, chiedendo informazioni agli utenti per garantire che gli algoritmi siano in linea con le esigenze e le preferenze di tutti.
Infine, le aziende devono investire nell'educazione contro la discriminazione e nel supporto del personale impiegato in questi sistemi, consentendo loro di riconoscere e correggere i potenziali pregiudizi prima di causare danni. Con misure attive come queste, possiamo combattere gli effetti insidiosi del pregiudizio algoritmico e promuovere l'inclusione sulle piattaforme online.
Gli spostamenti algoritmici possono aumentare sottilmente i presupposti eteronormativi anche negli spazi online destinati all'inclusione?
Anche se molti spazi online sono stati creati in modo intenzionale con un accento sull'inclusione, ci sono prove che alcune di queste piattaforme sono ancora in grado di migliorare in modo sottile i presupposti eteronormativi grazie al loro design algoritmico. Un modo per farlo potrebbe essere quello di includere un linguaggio codificato che prevede norme di genere in chat-bot, motori di ricerca e altri motori di intelligenza artificiale.