A IA revolucionou muitos aspectos da sociedade, incluindo as redes sociais. Plataformas como Facebook, Instagram e TikTok dependem em grande parte dos algoritmos para personalizar a experiência do usuário através de sistemas de recomendação.
No entanto, esses sistemas enfrentaram críticas por não serem capazes de apresentar as comunidades queer com precisão, o que gera preocupações éticas em relação à justiça e à inclusão. Este artigo aborda os problemas relacionados com as recomendações para as pessoas quir baseadas na inteligência artificial e discute como aumentar a transparência algoritmica pode contribuir para uma representação justa.
Os problemas enfrentados pelas pessoas quir nas redes sociais:
As plataformas de redes sociais tornaram-se parte integrante da vida moderna, oferecendo espaço de comunicação e expressão.
No entanto, para pessoas estranhas encontrar comunidades de suporte e ver como elas se refletem na rede pode ser difícil. Os algoritmos podem não reconhecer os seus interesses, preferências e necessidades, o que leva ao acesso limitado a conteúdos relevantes e à exclusão de experiências positivas.
Por exemplo, se alguém procurar «lésbico» no YouTube, pode ver conteúdo heterossexual ou vídeos que não são especialmente destinados a ele. Esta falta de uma representação precisa pode causar isolamento, menos confiança e menos visibilidade.
Além disso, algoritmos podem perpetuar estereótipos nocivos de estranheza, promovendo narrativas negativas e limitando as possibilidades para diferentes vozes. Alguns algoritmos até aumentam a homofobia, a transfobia e outras formas de discriminação que levam à incitação ao ódio e ao assédio. Estes problemas afetam desproporcionalmente grupos marginais na comunidade LGBT +, como pessoas de cor, pessoas com deficiência e pessoas que vivem nas zonas rurais.
Transparência algoritmica pode promover justiça:
Para resolver esses problemas, as plataformas de redes sociais devem priorizar a transparência algoritmica, o que se aplica a tornar os sistemas de recomendação mais acessíveis e compreensíveis para os usuários. Isso inclui uma explicação de como os algoritmos funcionam, por que algumas recomendações são feitas e quais dados são usados para personalizar a experiência do usuário. Ao aumentar a transparência, as plataformas podem permitir aos usuários navegar na plataforma, identificar preconceitos e tomar decisões razoáveis sobre suas experiências. Os usuários também devem ter controle sobre seus dados, podendo remover informações que não correspondam às suas informações de identificação ou preferências.
Além disso, os algoritmos devem ser desenvolvidos de forma a considerar a intersectividade, reconhecendo diferentes dados de identificação e interesses ao mesmo tempo.
Por exemplo, se um usuário se identificar como queer e black, suas recomendações devem refletir essa perspectiva multifacetada. As plataformas podem incluir a diversidade em algoritmos, colaborando com organizações gerenciadas por queer, coletando feedback de diferentes comunidades e fornecendo representação em todos os níveis de desenvolvimento e serviço.
Sistemas de recomendação baseados em inteligência artificial revolucionaram as redes sociais, mas podem excluir pessoas estranhas.
No entanto, uma maior transparência algoritmica pode contribuir para uma representação justa, permitindo que os usuários tenham acesso a conteúdos relacionados à sua identidade e experiência. As plataformas devem priorizar o design inclusivo, reunir diferentes pontos de vista e dar aos usuários mais controle sobre seus dados para criar espaços seguros e hospitaleiros para todos.
Quais são os problemas éticos causados pelos sistemas de recomendação baseados na IA nas redes sociais sobre a representação quir e como a transparência algoritmática pode melhorar a justiça e a inclusão?
Os sistemas de recomendação de inteligência artificial para plataformas de redes sociais apresentam vários problemas éticos em relação à representação quir, especialmente em relação à publicidade personalizada e supervisão de conteúdo. Algoritmos podem ser desenvolvidos em favor de certos tipos de conteúdo que atraem a maioria do público, o que pode excluir comunidades marginais, como pessoas LGBT +. Isso cria um ambiente em que é menos provável que eles vejam que eles estão representados exatamente ou positivamente nestas plataformas.