IA ha rivoluzionato molti aspetti della società, inclusi i social media. Piattaforme come Facebook, Instagram e TikTok si affidano in gran parte agli algoritmi per personalizzare l'esperienza utente attraverso i sistemi di raccomandazione.
Tuttavia, questi sistemi sono stati criticati per non essere stati in grado di immaginare con precisione le comunità di quire, che suscitano preoccupazioni etiche per equità e inclusione. In questo articolo si affrontano le problematiche relative alle raccomandazioni per i queer umani basate sull'intelligenza artificiale e si discute di come aumentare la trasparenza algoritmica possa favorire una rappresentanza equa.
I problemi che incontrano le persone che vivono nei social media sono che
Le piattaforme dei social media sono diventate parte integrante della vita moderna, offrendo spazio per la comunicazione e l'espressione.
Tuttavia, per le persone strane, è difficile trovare le comunità di supporto e vedere come si riflettono sulla rete. Gli algoritmi possono non riconoscere i propri interessi, preferenze e esigenze, con conseguente accesso limitato ai contenuti e esclusione dall'esperienza positiva.
Ad esempio, se qualcuno cerca «lesbico» sul YouTube, può vedere contenuti eterosessuali o video che non sono specificamente progettati per esso. Questa mancanza di una visione accurata può portare all'isolamento, alla riduzione della fiducia e alla riduzione della visibilità.
Inoltre, gli algoritmi possono perpetuare stereotipi dannosi sull'estraneità, promuovendo narrazioni negative e limitando le possibilità per diverse voci. Alcuni algoritmi perfino aumentano l'omofobia, la transfobia e altre forme di discriminazione che inducono all'odio e alle molestie. Questi problemi colpiscono in modo sproporzionato i gruppi marginali della comunità LGBT-TQ +, come le persone di colore, le persone con disabilità e le persone che vivono in campagna.
Trasparenza algoritmica può promuovere equità:
Per risolvere questi problemi, le piattaforme di social media devono dare priorità alla trasparenza algoritmica, rendendo i sistemi di raccomandazione più accessibili e comprensibili agli utenti. Questo include una spiegazione di come funzionano gli algoritmi, perché vengono fatte alcune raccomandazioni e quali dati vengono utilizzati per personalizzare l'esperienza utente. Aumentando la trasparenza, le piattaforme possono consentire agli utenti di orientarsi nella piattaforma, individuare pregiudizi e prendere decisioni fondate sulla propria esperienza. Gli utenti devono inoltre avere il controllo dei propri dati con la possibilità di eliminare informazioni che non corrispondono alle loro identità o preferenze.
Inoltre, gli algoritmi devono essere progettati in modo da tenere conto dell'intersezione, riconoscendo le diverse identità e interessi contemporaneamente.
Ad esempio, se un utente si identifica come quire e black, le sue raccomandazioni devono riflettere questa prospettiva multiforme. Le piattaforme possono includere la diversità negli algoritmi, collaborando con organizzazioni guidate da queer, raccogliendo feedback da comunità diverse e fornendo una rappresentanza a tutti i livelli di sviluppo e manutenzione.
I sistemi di raccomandazione basati sull'intelligenza artificiale hanno rivoluzionato i social media, ma possono escludere le persone strane.
Tuttavia, una maggiore trasparenza algoritmica può favorire una rappresentanza equa consentendo agli utenti di accedere ai contenuti relativi all'identità e all'esperienza. Le piattaforme devono dare priorità al design inclusivo, raccogliere punti di vista diversi e dare agli utenti un maggior controllo sui propri dati per creare spazi sicuri e ospitali per tutti.
Quali sono i problemi etici derivanti dai sistemi di raccomandazioni basate sull'intelligenza artificiale sui social media che riguardano la rappresentanza quir, e in che modo la trasparenza algoritmica può migliorare l'equità e l'inclusion
I sistemi di raccomandazione basata sull'intelligenza artificiale per le piattaforme di social media presentano diversi problemi etici per quanto riguarda la rappresentanza di queer, in particolare per quanto riguarda la pubblicità personalizzata e la supervisione dei contenuti. Gli algoritmi possono essere sviluppati a favore di alcuni tipi di contenuti che attraggono la maggior parte del pubblico, che possono escludere comunità marginali come le persone LGBT +. Questo crea un ambiente in cui è meno probabile che vedano che sono presenti in modo preciso o positivo su queste piattaforme.