Gli algoritmi sono sempre più utilizzati per modernizzare gli spazi online, incluse piattaforme di social media e motori di ricerca. Questi algoritmi giocano un ruolo importante nel determinare quali contenuti sono visibili e diffusi, ma possono anche aumentare i pregiudizi sociali e discriminare gruppi marginali come la comunità LGBT +. In questo saggio verrà considerato come gli algoritmi contribuiscono a marginalizzare le voci e l'esperienza in Internet.
Lo sviluppo della tecnologia ha rivoluzionato la comunicazione consentendo alle persone di tutti i settori della società di comunicare tra loro come mai prima d'ora.
Tuttavia, c'è un lato negativo di questo sviluppo, che è che molte minoranze sono ancora sottorappresentate ed escluse dal dibattito principale.
Ad esempio, i membri della comunità dei queer affrontano da tempo lo stigma e i pregiudizi della società, il che significa che spesso le loro voci vengono assordate o completamente ignorate. Un modo per farlo è il pregiudizio algoritmico, in cui i programmi informatici progettati per filtrare i contenuti possono involontariamente escludere le prospettive strane.
Ci sono diversi modi in cui gli algoritmi riproducono pregiudizi sociali e discriminazioni contro voci strane su Internet. In primo luogo, alcuni algoritmi si basano sui dati generati dall'utente per determinare quali contenuti devono essere prioritari o consigliati agli utenti. Ciò può portare ad un punto di vista omogeneo che domina la conversazione, perché coloro che non si identificano come eterosessuali possono avere meno probabilità di affrontare determinati argomenti o condividere le proprie opinioni online.
Gli algoritmi possono inoltre utilizzare modelli di apprendimento automatico che analizzano i modelli di linguaggio e comportamento esistenti per informare le proprie decisioni sui contenuti da promuovere. Ciò può portare a conservare stereotipi e idee sbagliate sulla comunità di queer.
Un altro fattore che contribuisce a questo problema è la mancanza di diversità tra coloro che creano questi algoritmi. Molte aziende tecnologiche non possono assumere un numero sufficiente di dipendenti LGBT +, il che significa che non forniscono prospettive diverse nel processo di sviluppo degli algoritmi.
Infine, le piattaforme dei social media possono censurare attivamente le voci quir, eliminando i post o riducendone la visibilità. Questo può creare un effetto ecocamera quando c'è solo una prospettiva e altri sono storditi.
In conclusione, il pregiudizio algoritmico contribuisce a marginalizzare le voci quir su Internet. Per le aziende tecnologiche è importante affrontare il problema assumendo più persone LGBT + nella propria forza lavoro e garantendo l'inclusione dei propri prodotti.
Inoltre, le piattaforme di social media devono essere responsabili del loro ruolo nella valorizzazione delle voci in coda. In questo modo possiamo creare uno spazio online più equo dove tutte le voci possono essere ascoltate e rispettate ugualmente.
In che modo gli algoritmi riproducono il pregiudizio della società e la discriminazione nei confronti delle voci queer online?
I processi decisionali algoritmici che gestiscono i motori di ricerca e le piattaforme di social media possono aumentare le voci eteronormative e emarginare le voci quir a causa dei pregiudizi incorporati nei dati utilizzati per tali decisioni.