Quais são alguns dos problemas éticos causados pelos sistemas de recomendação de IA nas redes sociais em relação à representação quir?
Como é que a transparência algoritmica pode melhorar os resultados para as comunidades marginalizadas?
Não há dúvida de que os queer humanos enfrentam discriminação em muitos aspectos da vida.
Por exemplo, eles muitas vezes enfrentam maiores índices de problemas de saúde mental, como depressão e ansiedade devido à discriminação. Infelizmente, a mesma discriminação existe em espaços online como as redes sociais. As pessoas estranhas podem sentir-se isoladas e excluídas se a sua experiência não for compatível com o que é considerado «normal» ou aceitável na sociedade. Este isolamento pode aumentar o sentimento de solidão e tristeza. Uma forma de as redes sociais tentarem combater este problema é usar sistemas de recomendação baseados em inteligência artificial projetados para promover conteúdos mais variados.
No entanto, esses sistemas foram criticados por apresentarem problemas adicionais, porque podem perpetuar a dinâmica de potência existente.
Por exemplo, se um sistema de inteligência artificial recomenda conteúdo quir baseado no comportamento do usuário, isso pode aumentar as expectativas heteronormativas em vez de desafiá-las.
Além disso, esses sistemas podem sentir falta de transparência na forma como eles fazem recomendações. Como é que a transparência algoritmica pode melhorar os resultados para comunidades marginais, incluindo pessoas estranhas?
A importância da transparência algoritmica
Transparência algoritmica se aplica ao fornecimento de informações aos usuários sobre o porquê de determinados tipos de conteúdo serem recomendados. Sem esta informação, os usuários podem sentir que a plataforma os manipula sem qualquer direito de voz nesta questão. É difícil confiar na plataforma quando não se sabe como funcionam os algoritmos dela. A transparência ajuda a criar confiança entre a plataforma e seus usuários, o que pode encorajar pessoas de todos os segmentos da sociedade a usarem regularmente um site ou aplicativo.
Transparência permite que os usuários vejam como seus próprios dados são usados e possam alterá-los se eles discordarem das recomendações recebidas.
Por exemplo, se um usuário sentir que sua queer identity está sendo ignorada ou apagada pelo sistema, pode querer ajustar suas configurações. Se o usuário souber quais os fatores que influenciam a formulação de recomendações, também pode responsabilizar a plataforma se estes fatores não representarem adequadamente seus interesses ou perspectivas.
Melhorar a visão através da transparência algoritmica
Existem várias maneiras que as plataformas de redes sociais podem implementar transparência algoritmática para melhorar a representação das comunidades marginalizadas. Uma forma é fornecer recomendações claras sobre o tipo de conteúdo que será e não será recomendado. Isto pode incluir exemplos de conteúdo LGBT + que cumprem critérios específicos, como a representação de diferentes identidades, experiências e relacionamentos. Outro método consiste em criar ferramentas para os membros da comunidade para avaliar o conteúdo baseado em sua precisão, relevância e qualidade que permitam às pessoas estranhas criar o próprio algoritmo de recomendação.
Finalmente, as plataformas de redes sociais devem garantir que seus sistemas de recomendação levem em consideração vários fatores nas ofertas, não apenas indicadores de cliques ou indicadores de inclusão.
É importante que essas mudanças aconteçam no contexto de um esforço maior para combater a discriminação de pessoas estranhas na sociedade. As plataformas devem garantir que oferecem espaços seguros para todos os usuários sem toquenização ou operação de queer humanos.Além disso, as empresas precisam cooperar com as organizações LGBT + para identificar as lacunas de representação e trabalhar em conjunto para soluções mais inclusivas. Priorizando a diversidade e a inclusão em cada nível de desenvolvimento, as plataformas de redes sociais podem criar um ambiente em que todos se sintam visíveis e valiosos pelo que são.
Quais são os problemas éticos causados pelos sistemas de recomendação baseados na inteligência artificial, nas redes sociais sobre a representação quir e como a transparência algoritmica pode melhorar os resultados para as comunidades marginalizadas?
Um dos principais problemas éticos causados pelos sistemas de recomendação baseados na IA nas redes sociais é a potencial discriminação de comunidades marginalizadas. Quando os algoritmos são concebidos para explorar as preferências do usuário e recomendar conteúdo baseado nessas preferências, há o risco de que eles possam perpetuar estereótipos e preconceitos nocivos.