Gli spostamenti algoritmici possono essere definiti come pregiudizi che derivano dai dati utilizzati per l'apprendimento degli algoritmi, che poi perpetuano gli stessi spostamenti attraverso le loro previsioni e soluzioni. Negli ultimi anni, la preoccupazione per come i pregiudizi algoritmici possano influenzare la percezione del sesso e della sessualità online. In questo saggio verrà considerato come il pregiudizio algoritmico possa finemente rafforzare i presupposti normativi sul campo e la sessualità, soprattutto nel contesto delle applicazioni per incontri online e piattaforme di social media.
È importante notare che molti servizi online si affidano in gran parte a contenuti personalizzati, come profili e post, per fornire suggerimenti personalizzati e risultati di incontri. Questi sistemi sono progettati per creare un'illusione di scelta mantenendo lo squilibrio di potenza tra utenti e piattaforme.
Ad esempio, quando un utente crea un profilo in un'applicazione di incontri, vengono fornite una serie di potenziali partite in base alla loro posizione, alla fascia di età, agli interessi e ad altri fattori demografici.
Tuttavia, è possibile che questo processo sia influenzato da dati pregiudiziali o da stereotipi obsoleti, creando limitate opportunità per coloro che non rientrano nelle categorie tradizionali.
Un esempio di pregiudizio algoritmico nel campo degli incontri online viene da una piattaforma di incontri popolare che utilizza un sistema di mapping per comunicare gli utenti in base a interessi comuni. Uno studio condotto da Data & Society ha dimostrato che l'algoritmo del OkCupid favorisce le coppie eterosessuali piuttosto che i volti dell'LGBTQ + a causa degli schemi storici dei dati utente. Di conseguenza, anche se più della metà di tutti i nuovi matrimoni attualmente includono almeno un partner che si identifica come qualcosa di diverso da quello diretto, gli utenti che non si identificano come cisgender possono essere presentati meno opzioni rispetto a chi lo fa.
Allo stesso modo, gli algoritmi utilizzati da Facebook e Instagram per determinare quali contenuti compaiono nei nastri degli utenti sono spesso pregiudizievoli nei confronti di gruppi marginali.
Ad esempio, uno studio pubblicato su Nature Communications ha dimostrato che le donne ricevono più pubblicità dei prodotti per la perdita di peso rispetto agli uomini, il che perpetua norme dannose di genere intorno all'immagine corporea. Inoltre, gli studi hanno dimostrato che i neri americani vedono più spesso che i bianchi pubblicizzare la discriminazione degli alloggi sui social media, aumentando le disuguaglianze razziali. Questi tipi di pregiudizi algoritmici possono ridurre le prospettive e rafforzare gli stereotipi negativi su alcuni gruppi.
In conclusione, anche se molti servizi online sostengono di offrire personalizzazione e scelte, in realtà possono limitare la capacità dei propri utenti di esplorare al di fuori delle norme stabilite in materia di sesso e sessualità. Studiando il funzionamento di questi sistemi, possiamo iniziare a contestare i presupposti sottostanti e cercare di creare alternative più inclusive.
È inoltre importante che gli utenti sappiano come utilizzare e condividere le loro informazioni personali in modo da poter prendere decisioni giustificate su cosa preferiscono condividere online.
Le distorsioni algoritmiche possono aumentare finemente i presupposti normativi sul campo e la sessualità online?
Le distorsioni algoritmiche possono aumentare finemente i presupposti normativi sul campo e la sessualità online?