Algoritmos são programas de computador que podem processar dados para tarefas. Eles trabalham sob fórmulas matemáticas e lógica. Os algoritmos são usados em todo o lado, desde motores de busca até canais de redes sociais e aplicativos de encontros online. Mas como os algoritmos refletem os preconceitos sociais que marginalizam as vozes quir?
Neste artigo, eu exploro como os preconceitos algoritmicos afetam as pessoas quir e como elas perpetuam a desigualdade. Também vou dar exemplos de cenários reais em que pessoas estranhas foram discriminadas por preconceito algoritmico.
Finalmente, vou oferecer algumas soluções para reduzir o preconceito algoritmico.
Preconceito algoritmico
Algoritmos são desenvolvidos por pessoas que podem, inconscientemente, incorporar seus próprios preconceitos no código. Isso significa que os algoritmos podem refletir normas sociais e preconceitos que muitas vezes marginalizam vozes queer.
Por exemplo, um site de compras online pode mostrar a homens e mulheres diferentes anúncios baseados em estereótipos de gênero sobre o que eles devem comprar. Da mesma forma, o algoritmo de solicitação de emprego pode favorecer os candidatos diretos em vez de estranhos, porque a empresa acredita que a heterossexualidade é mais comum no setor.
Exemplos de deslocamento algoritmico
Um exemplo recente de deslocamento algoritmico foi quando o Tinder apresentou as notas «Elo» para corresponder aos usuários. A avaliação de Elo deve medir a compatibilidade entre duas pessoas.
No entanto, parece que o algoritmo favorecia indivíduos brancos, cisgêneros, heteronormativos, mesmo que essas características não fizessem parte dos critérios de conformidade. Como resultado, muitas pessoas estranhas se sentiram excluídas da plataforma e deixaram-na.
Outro exemplo é a tecnologia de reconhecimento facial que, como foi demonstrado, não identifica corretamente a transe - e os não-indivíduos como sexo atribuído ao nascimento. Pode levar a situações perigosas em que agentes da lei usam dados errados para prender ou perseguir alguém.
Soluções para reduzir o preconceito algoritmico
Para reduzir o preconceito algoritmico, as empresas devem ser transparentes sobre como seus algoritmos funcionam e coletar uma variedade de feedback dos usuários. Eles também precisam contratar desenvolvedores com diferentes experiências e opiniões para garantir que todas as vozes estão representadas no processo de design.
Por fim, eles devem implementar controles de qualidade confiáveis para verificar preconceito antes de lançar novos produtos ou atualizações.
Para terminar, algoritmos podem perpetuar preconceitos sociais contra pessoas estranhas, refletindo normas e preconceitos. As empresas devem tomar medidas para reduzir esse preconceito, sendo transparente em relação aos seus algoritmos e incluindo diferentes pontos de vista no desenvolvimento. Se queremos criar uma sociedade mais justa, temos de lidar com o deslocamento algoritmico para a frente.
Como os algoritmos refletem os preconceitos sociais que marginalizam as vozes quir?
Uma forma de os algoritmos refletirem preconceitos sociais é desenvolvê-los e implementá-los. Como os algoritmos são criados por seres humanos, eles podem incluir certos valores e crenças que são comuns na sociedade. Isso significa que é mais provável que eles tenham vantagem sobre outros, como heteronormatividade ou cisgenderismo.