A internet está a tornar-se um aspecto cada vez mais importante da vida cotidiana, especialmente para pessoas LGBT + que podem enfrentar discriminação e preconceito nos espaços físicos.
No entanto, apesar dos esforços para criar espaços on-line mais inclusivos, permanece o risco de que o preconceito algoritmico possa aumentar os pressupostos heteronormativos e promover a desigualdade. Este artigo vai considerar como os algoritmos podem preferir as pessoas cisgêneras e heterossexuais, mesmo em ambientes virtuais projetados para dar boas-vindas a todas as identidades. Para isso, ele vai discutir o conceito de preconceito e como eles podem se manifestar em plataformas digitais, analisar estudos de caso a partir de aplicativos populares, como Grindr e OkCupid, e recomendações para criar espaços on-line mais igualitários para todos.
Em geral, esta parte busca esclarecer os problemas que a comunidade queer enfrenta ao navegar sobre encontros digitais e socialização e promover maior sensibilização e ação. Compreendendo como os preconceitos funcionam, podemos trabalhar para criar experiências online mais inclusivas que promovam a justiça e a igualdade para todos.
Algoritmos são ferramentas importantes usadas por muitos sites e aplicativos para ordenar informações, facilitar a comunicação e otimizar o desempenho dos usuários. Eles incluem um conjunto de instruções ou regras que guiam as máquinas através de determinadas tarefas, tornando-as úteis para processos automatizados, tais como prever resultados de pesquisa, classificar produtos baseados em avaliações de clientes ou supervisionar fitas de notícias personalizadas. Embora esses sistemas possam ser incrivelmente úteis, eles também trazem o potencial de preconceito - preferências involuntárias, mas comuns, que podem injustamente dar vantagem a alguns grupos sobre outros. Por exemplo, em termos de encontros online, um algoritmo pode priorizar perfis com palavras-chave, imagens ou características específicas, levando a correspondências que refletem visões normativas de campo, sexualidade, raça ou tipo de corpo. Quando essas suposições são codificadas em softwares desenvolvidos para todos, podem ter consequências de longo alcance para aqueles que procuram conexões fora das normas tradicionais.
Um exemplo famoso é o Grindr, um aplicativo popular entre gays que tem enfrentado críticas por seu suposto racismo e ejismo. De acordo com o relatório de 2018 do jornalista Michael Kelly, os usuários podem receber menos mensagens se possuem características «femininas» ou maiores de 35 anos. Isso sugere que os algoritmos de Grindre favorecem certos atributos físicos, ao mesmo tempo que excluem outros baseados em critérios arbitrários. Da mesma forma, OkCupid foi acusado de exibir resultados racialmente preconceituosos nos resultados da comparação, o que levou a empresa a pedir desculpas e alterar seu algoritmo para resolver o problema. Em ambos os casos, ressalta-se que a tecnologia aparentemente neutra pode perpetuar a discriminação e a apagagem, fazendo com que alguns usuários se sintam marginalizados ou rejeitados em outros ambientes progressivos.
Para criar um espaço digital mais justo, os desenvolvedores devem tomar medidas para identificar e eliminar preconceitos em seus algoritmos. Uma estratégia inclui a diversificação dos conjuntos de dados usados para aprender modelos de aprendizado de máquina, garantindo que uma ampla gama de identidades, experiências e perspectivas determinam os processos decisórios. Outra abordagem consiste em promover a responsabilização através de feedback e inclusão da comunidade, solicitando informações dos usuários para garantir que os algoritmos correspondem às necessidades e preferências de todas as pessoas.
Finalmente, as empresas devem investir em educação contra a discriminação e suporte aos funcionários que trabalham nestes sistemas, dando-lhes a oportunidade de reconhecer e corrigir potenciais preconceitos antes de causar danos. Com medidas ativas como esta, podemos combater os efeitos insidiosos do preconceito algoritmico e promover a inclusão nas plataformas online.
Os deslocamentos algoritmicos podem aumentar sutilmente as suposições heteronormativas, mesmo em espaços online destinados à inclusão?
Embora muitos espaços online estejam sendo criados deliberadamente com foco na inclusão, há evidências de que algumas dessas plataformas ainda podem aumentar sutilmente os pressupostos heteronormativos graças ao seu design algoritmático. Uma forma disso pode ser incluir uma linguagem codificada que envolve normas de gênero em bate-botas, motores de busca e outros sistemas de inteligência artificial.