Il mondo ha visto esplodere i media digitali che hanno rivoluzionato il modo in cui le persone interagiscono e consumano il divertimento. Le comunità di queer hanno beneficiato anche di questo cambiamento verso piattaforme online come TikTok, Instagram e OnlyFans. Queste piattaforme offrono maggiore rappresentatività, creatività e accesso a un pubblico precedentemente inaccessibile a causa delle barriere geografiche.
La curatela algoritmica può essere problematica quando si tratta di visibilità e appartenenza. In questo articolo verrà esaminato il modo in cui vengono supervisionati i contenuti quir attraverso gli algoritmi e il suo impatto sull'autostima.
La supervisione algoritmica si riferisce al modo in cui piattaforme come i social media decidono quali contenuti mostrare ai propri utenti in base a diversi fattori, quali l'inclusione, la rilevanza e le preferenze degli utenti. Ciò influisce sulla visibilità perché determina chi vede le vostre pubblicazioni e quando compaiono nel nastro di qualcuno. Ciò influisce sull'appartenenza perché crea una camera eco in cui un contenuto simile ha la priorità, escludendo altre voci. E questo influisce sull'autostima perché rafforza certe idee di stranezza che potrebbero non riflettere la vostra esperienza o personalità.
Un modo per supervisionare i contenuti quir è usare parole chiave come «gay», «lesbica», «bisessuale» e «transgender». Quando si cerca in questi termini, si ottiene una selezione di video consigliati dall'algoritmo della piattaforma. Anche se può aumentare la consapevolezza, limita la visibilità perché non tiene conto delle sfumature all'interno di ogni comunità o sottocultura.
Il video di due donne baciate può essere etichettato come «lesbica», anche se una di loro si identifica come bisessuale o pansessuale.
Un altro problema della supervisione algoritmica è la mancanza di diversità nei contenuti quir. Molti creatori popolari sono uomini bianchi, cisgenderi o donne, il che distorce la visione della comunità LGBT TQ +. Le persone emarginate hanno meno visibilità e meno risorse disponibili, con conseguente isolamento e invisibilità. Può essere dannoso per la salute mentale, soprattutto per i giovani che esplorano la loro sessualità o identità di genere.
Gli algoritmi possono anche privilegiare contenuti sensazionali e contraddittori piuttosto che funzionalità educative o di espansione. Ciò può portare a mantenere stereotipi negativi sulla stranezza, come quelli legati alla feticizzazione e l'oggettività. Di conseguenza, molti strani utenti si sentono sotto pressione per soddisfare queste idee per corrispondere, influenzando il loro senso di importanza e appartenenza.
Alcune piattaforme stanno facendo passi verso una maggiore inclusione. OnlyFans consente ai creatori di impostare tag specifici per descrivere se stessi e il proprio lavoro, facilitando la ricerca di contenuti appropriati da parte degli utenti. E offre hashtag come TQ +, per promuovere una varietà di voci. Questi sforzi dimostrano che gli algoritmi non devono dettare come ci vediamo o ci vediamo. Usando un linguaggio preciso e dando priorità a storie affidabili, possiamo creare uno spazio digitale dove tutti si sentono visti e ascoltati.
In che modo la supervisione algoritmica dei contenuti quir influisce sulla visibilità, l'appartenenza e l'autostima?
La supervisione algoritmica può avere effetti positivi e negativi sulla visibilità, l'appartenenza e l'autostima delle persone strane. Da un lato, può aumentare la visibilità dei contenuti queer, promuovendo informazioni e esperienze appropriate che possono non essere disponibili con i mezzi tradizionali. Ciò può portare a una maggiore consapevolezza e comprensione della cultura e dell'identità queer tra le persone non ritriche, che può promuovere una maggiore accettazione e inclusione.