Algoritmi e moderazione dei contenuti sono strumenti importanti che formano il modo in cui le persone vedono e interagiscono tra loro su Internet. Quando si tratta di comunità queer e le loro espressioni, diventano sempre più influenti nel determinare quali voci sono ascoltate e quali non parlano. Su piattaforme come Facebook, Instagram e TikTok, gli utenti possono pubblicare contenuti sulle loro esperienze come persone con la LGBTQ +, ma non ci sono garanzie che tutti possano vederlo grazie alle decisioni algoritmiche adottate da queste aziende sulla base di indicatori di coinvolgimento e raccomandazioni comunitarie. In questo articolo prenderemo in considerazione come gli algoritmi e la moderazione dei contenuti influenzano la visibilità di gruppi marginali negli spazi queer, inclusi i transessuali a colori, che affrontano alti livelli di discriminazione sia all'interno che all'esterno della comunità. Discuteremo anche di come questi sistemi possano essere riformati per mantenere meglio tutte le voci, in modo che nessuno si senta depresso o ignorato quando si esprime attraverso i social media.
L'importanza degli algoritmi e della modulazione dei contenuti
I social media hanno cambiato il modo in cui le persone comunicano tra loro, permettendo loro di connettersi attraverso i confini fisici e condividere idee, opinioni ed esperienze più facili che mai.
Ciò ha anche creato nuovi problemi di visibilità, accessibilità e rappresentanza, soprattutto per i gruppi marginali come quelli che si identificano come LGBT +. Piattaforme come Facebook, Instagram e TikTok si affidano in gran parte agli indicatori di coinvolgimento degli utenti, come like, ripetizioni, commenti e follow-up, per determinare quali pubblicazioni compaiono sui nastri. Ciò significa che i contenuti che ricevono molta attenzione saranno visualizzati più in alto nei risultati di ricerca o elenchi di trend, mentre i post che non sono molto coinvolgenti potrebbero non essere affatto visualizzati se qualcuno non li cerca attivamente. Quando si tratta di presentare prospettive strane, questo sistema può portare a una sottorappresentazione o addirittura cancellazione se certi tipi di contenuti non sono diffusi abbastanza.
Inoltre, molte piattaforme adottano politiche rigorose in materia di nudità e sessualità, rendendo più difficile per gli utenti parlare apertamente di intimità senza timore di essere censurati o sospesi.
La marginalizzazione delle persone transgender di colore
Le persone transgender stanno già affrontando un livello sproporzionato di discriminazione sia all'interno che all'esterno delle loro comunità a causa dei pregiudizi sociali contro le incongruenze di genere. Quando aggiungi una razza all'equazione, questa lotta diventa ancora più acuta. Secondo uno studio del Pew Research Center, le donne trans di colore hanno il doppio delle probabilità di subire molestie online rispetto alle donne trans bianche. Essi tendono anche a guadagnare meno denaro online attraverso la monetizzazione dei social network a causa dei pregiudizi razzisti tra i potenziali sponsor. Inoltre, le piattaforme spesso combattono il modo di modernizzare i contenuti legati al bodyguard o al lavoro sessuale che coinvolgono le persone trans, poiché questi temi vanno oltre le normative tradizionali in materia di espressione sessuale, ma rimangono parti importanti dell'identità di alcune comunità.
Infine, ci sono prove che gli algoritmi possono aumentare gli stereotipi negativi associati alle persone transgender quando compaiono nelle notizie o nei video offerti, basandosi sulla cronologia e non sulla qualità o l'attualità. Tutti questi fattori si uniscono per creare un ambiente in cui le voci transgender siano spesso silenziate o escluse dai discorsi sui problemi LGBT-TQ +.
Percorsi di riforma degli algoritmi e modulazione dei contenuti
Anche se riformare i sistemi algoritmici è difficile, data la loro complessità e importanza nel mantenere gli utenti coinvolti, ci sono diverse strategie che possono aiutare a rendere più visibili i gruppi marginali, come gli strani individui di colore:
1.La priorità delle raccomandazioni linguistiche inclusive. Le piattaforme devono fornire indicazioni chiare su quali tipi di lingue sono accettabili quando si discutono argomenti sensibili, come l'identità di genere o l'intimità, in modo che gli utenti sappiano esattamente quanto lontano possano spingere i confini senza rischiare di essere censurati o puniti.
2. Promuovere una varietà di rappresentanza. Le aziende possono collaborare con le organizzazioni che sostengono le persone meno rappresentate nella comunità LGBT-TQ +, esprimendole sui loro siti web o sottolineando iniziative volte a ridurre le disuguaglianze.
3. Le piattaforme possono consentire agli utenti di esprimersi liberamente, garantendo al contempo il rispetto delle regole contro le molestie o l'incitamento all'odio. Ciò richiederà un ripensamento dei metodi di modellazione esistenti, che tendono a una censura eccessiva, piuttosto che un'interpretazione dettagliata delle intenzioni dietro le postazioni.
4. Studiate i pregiudizi algoritmici: le aziende devono scoprire perché determinati contenuti non vengono considerati più ampiamente come gli altri e lavorare per correggere i principali pregiudizi sistemici che possono verificarsi.
Ad esempio, se i video sull'identità trans ricevono un basso livello di inclusione, ma forniscono informazioni preziose sull'accesso all'assistenza sanitaria o sulle opportunità di lavoro, ciò potrebbe indicare problemi più seri rispetto al modo in cui le strane storie si diffondono su Internet piuttosto che alla mancanza di attrattività del singolo creatore.
5. Incoraggiare diversi punti di vista:
Infine, le piattaforme possono incoraggiare gli utenti di tutti i settori della società - inclusi coloro che si identificano come alleati diretti del cisgender - a parlare dei problemi che riguardano le comunità emarginate, fornendo risorse su come fare al meglio (ad esempio, attraverso gli articoli). Facendo questi passi insieme, possiamo creare spazi in cui tutti si sentano ascoltati indipendentemente dall'identità e garantire che nessuno rimanga in disparte quando si discutono temi importanti come la sessualità e l'identità di genere.
In che modo gli algoritmi e la moderazione dei contenuti generano visibilità e marginalizzazione delle voci queer online?
Nonostante la crescente presenza di persone LGBT TQ + sulle piattaforme dei social media e il crescente riconoscimento della loro identità nella società, la visibilità e la rappresentanza di queste comunità rimangono problematiche a causa di vari fattori, come i pregiudizi algoritmici e le politiche di censura. Il pregiudizio algoritmico riguarda il modo in cui gli algoritmi utilizzati dai social media possono perpetuare gli stereotipi dannosi e marginalizzare determinati gruppi in base alla loro identità, orientamento sessuale, espressione di genere o altre caratteristiche personali.