Logo

ZeroOpposite

Contact Us
Search

IL SISTEMA ALGORITMICO PUÒ RINFORZARE O SOPPRIMERE LE VOCI QUIRE? IL DIBATTITO CONTINUA. itEN FR DE PL TR PT RU AR JA CN ES

3 min read Queer

Il sistema algoritmico può rinforzare o sopprimere le voci quire? La questione è stata discussa nel mondo informatico per anni, ma non c'è ancora una risposta chiara. Da un lato, sembra che gli algoritmi possano aiutare a identificare e promuovere comunità marginali come la comunità LGBT +. D'altra parte, possono anche aumentare i pregiudizi esistenti e aggravare la discriminazione nei confronti di questi gruppi.

Gli algoritmi sono formule matematiche progettate per risolvere i problemi. Accettano i dati e forniscono risultati basati su questi dati di input. Negli ultimi anni sono diventati sempre più importanti in settori quali finanza, sanità, istruzione e politica. Ma quando si tratta di rafforzare o sopprimere i quir-voci, il loro ruolo si complica.

Uno dei modi per aumentare le voci a quattro è l'utilizzo dei sistemi di raccomandazione. Questi sistemi offrono articoli, video o altri media che possono sembrare interessanti per gli utenti. Se notano uno schema di ciò che le persone leggono o guardano, possono adattare le linee guida per riflettere questi interessi. Questo può includere contenuto incentrato sulle query, che altrimenti potrebbe essere difficile da trovare.

Tuttavia, questi algoritmi non funzionano sempre come previsto.

Per esempio, alcuni studi hanno dimostrato che i suggeritori possono escludere il contenuto da determinati autori se utilizzano un linguaggio specifico. Altri possono mostrare pubblicità incentrata su uomini cisgender, rendendo difficile per i transgender trovare informazioni appropriate.

Inoltre, questi sistemi possono perpetuare stereotipi sul campo e sulla sessualità. Possono suggerire che tutti vogliono vedere una visione tradizionale del rapporto romantico tra uomo e donna, che limita la visibilità di identità anomale. Allo stesso modo, possono suggerire che tutte le donne vogliono vedere lezioni di trucco, ignorando una varietà di standard di bellezza.

Per risolvere questo problema, le aziende hanno iniziato a sviluppare algoritmi più inclusivi. Alcune piattaforme ora tengono conto di fattori come la razza, l'etnia e la disabilità nella creazione di offerte di contenuti. Altri consentono agli utenti di personalizzare le proprie preferenze specificando le categorie di ID.

Tuttavia, ci sono molti miglioramenti.

Gli algoritmi hanno anche un ruolo importante nel perseguire persone strane su Internet. La retorica dell'odio, il doxing (lo scambio pubblico di informazioni personali) e altre forme di abuso sono diventati comuni sui social network. Queste piattaforme spesso si basano su algoritmi di apprendimento automatico per contrassegnare post potenzialmente offensivi. Ma a volte non riconoscono parole e azioni dannose.

Inoltre, i sistemi algoritmici possono indirettamente contribuire alla discriminazione delle comunità LGBT +.

Ad esempio, i siti di selezione del personale utilizzano spesso parole chiave per mappare i candidati a posizioni aperte. Se queste parole chiave escludono i termini associati a identità non biologiche o poliamorose, questo può causare uno spostamento.

In generale, i sistemi algoritmici non possono essere completamente neutrali per quanto riguarda il rafforzamento o la soppressione di cinque voci. Anche se hanno il potenziale per sostenere la diversità, devono essere attentamente sviluppati e testati per prevenire le conseguenze involontarie. Gli sviluppatori e i politici devono garantire che questi strumenti siano utilizzati in modo responsabile ed equo.