Algoritmos e moderação de conteúdo são ferramentas importantes que formam a forma como as pessoas veem e interagem entre si na Internet. Quando se trata de comunidades queer e suas expressões, elas são cada vez mais influentes para determinar quais são as vozes ouvidas e as que não falam. Em plataformas como Facebook, Instagram e TikTok, os usuários podem publicar conteúdos sobre suas experiências como pessoas com o WOLFTQ +, mas não há garantias de que todos possam vê-los através de decisões algoritmicas tomadas por essas empresas com base em indicadores de envolvimento e recomendações comunitárias. Neste artigo, vamos considerar como os algoritmos e a moderação do conteúdo afetam a visibilidade de grupos marginais em espaços de queer, incluindo transexuais de cor que enfrentam altos níveis de discriminação dentro e fora da comunidade de queer. Nós também vamos discutir como estes sistemas podem ser reformados para manter melhor todas as vozes, para que ninguém se sinta desapropriado ou ignorado ao se expressar através das redes sociais.
A importância dos algoritmos e modulações de conteúdo
As redes sociais mudaram a forma como as pessoas se comunicam umas com as outras, permitindo que elas se conectem através dos limites físicos e compartilhem ideias, opiniões e experiências mais facilmente do que nunca.
No entanto, isso também criou novos problemas de visibilidade, acessibilidade e representatividade, especialmente para grupos marginalizados, como aqueles que se identificam como LGBT +. Plataformas como Facebook, Instagram e TikTok dependem em grande parte dos indicadores de envolvimento dos usuários, tais como likes, ressalvas, comentários e foliões, para determinar quais publicações aparecem nas fitas. Isso significa que o conteúdo com muita atenção será exibido acima nos resultados de pesquisa ou lista de tendências, enquanto os posts que não causam grande envolvimento podem não ser exibidos se alguém não estiver ativamente procurando por eles. Quando se trata de apresentar perspectivas estranhas, este sistema pode resultar em subrepresentação ou até mesmo apagar, a menos que certos tipos de conteúdo sejam amplamente difundidos.
Além disso, muitas plataformas adotam políticas rigorosas sobre nudez e sexualidade, o que dificulta os usuários a falar abertamente sobre intimidade sem medo de censura ou suspensão.
Marginalização de pessoas transgêneros cor
Pessoas transexuais já enfrentam níveis desproporcionais de discriminação dentro e fora de suas comunidades devido a preconceitos sociais contra a discrepância de gênero. Quando você adiciona uma raça na equação, esta luta torna-se ainda mais aguda. De acordo com um estudo do Pew Research Center, mulheres negras são duas vezes mais propensas a serem assediadas na Internet do que mulheres brancas trans. Eles também tendem a ganhar menos dinheiro na internet através da monetização das redes sociais devido a preconceitos racistas entre potenciais patrocinadores. Além disso, as plataformas muitas vezes lutam contra a forma de modernizar conteúdos relacionados com o bodipositivo ou o trabalho sexual que envolvem pessoas trans, porque estes temas estão fora das normas tradicionais sobre a expressão sexual, mas permanecem partes importantes da identidade de algumas comunidades.
Finalmente, há provas de que algoritmos podem aumentar estereótipos negativos relacionados a pessoas transgêneros quando elas aparecem em noticiários ou vídeos oferecidos, baseados no histórico de visualização, e não na qualidade ou relevância. Todos estes fatores se unem para criar um ambiente em que vozes transgêneros são muitas vezes silenciadas ou excluídas de falar sobre problemas LGBT +.
Formas de reformar algoritmos e modular conteúdo
Embora a reforma dos sistemas algoritmicos seja uma tarefa difícil, dada a sua complexidade e importância na manutenção da inclusão dos usuários, existem várias estratégias que podem ajudar a dar maior visibilidade a grupos marginais, como pessoas estranhas de cor:
1.Produção da prioridade das recomendações linguísticas inclusivas. As plataformas devem fornecer recomendações claras sobre quais tipos de linguagens são aceitáveis ao discutir temas sensíveis, tais como identidade de gênero ou intimidade, para que os usuários saibam exatamente até onde podem abrir fronteiras sem correr o risco de serem censurados ou punidos.
2. Promover uma representação diversificada. As empresas podem cooperar com organizações de apoio a pessoas subapresentadas na comunidade LGBT +, expressando-as em seus sites ou enfatizando iniciativas para reduzir a desigualdade.
3. Permitir as nuances da expressão: As plataformas podem permitir que os usuários se expressem livremente, ao mesmo tempo que respeitam as regras contra o assédio ou incitação ao ódio. Isso exigiria uma redefinição dos métodos de moderação existentes, que tendem à censura excessiva, em vez de uma interpretação detalhada das intenções por trás das postagens.
4. Investigue os preconceitos algoritmicos: as empresas devem descobrir porque certos conteúdos não são considerados tão amplamente como os outros e trabalhar para corrigir qualquer preconceito sistêmico básico que possa ocorrer.
Por exemplo, se um vídeo de identidade trans recebe um baixo nível de inclusão, mas contém informações valiosas sobre acesso à saúde ou oportunidades de emprego, isso pode indicar problemas maiores com a forma como histórias estranhas são divulgadas na Internet, e não sobre a falta de atratividade de um criador individual.
5. Encoraja diferentes pontos de vista:
Finalmente, as plataformas podem encorajar usuários de todos os segmentos da sociedade - incluindo aqueles que se identificam como aliados diretos do cisgender - a se manifestarem sobre os problemas que afetam as comunidades marginalizadas, fornecendo recursos sobre a melhor forma de fazer isso de forma eficaz (por exemplo, através de artigos). Ao tomar essas medidas juntos, podemos criar espaços onde todos se sintam ouvidos, independentemente da identidade, e garantir que ninguém fique de fora para discutir temas importantes, como a sexualidade e a identidade de gênero.
Como é que algoritmos e moderação de conteúdo geram visibilidade e marginalização de vozes queer na Internet?
Apesar da crescente presença de indivíduos LGBT + nas plataformas de redes sociais e do crescente reconhecimento de sua identidade na sociedade, a visibilidade e a representação dessas comunidades permanecem problemáticas devido a vários fatores, como preconceitos algoritmos e políticas de censura. O preconceito algoritmico refere-se à forma como os algoritmos usados pelas redes sociais podem perpetuar estereótipos nocivos e marginalizar determinados grupos com base em sua identidade, orientação sexual, expressão de gênero ou outras características pessoais.