Os algoritmos são cada vez mais usados para modernizar espaços online, incluindo plataformas de redes sociais e motores de busca. Estes algoritmos têm um papel importante na definição do conteúdo visível e distribuído, mas também podem aumentar os preconceitos sociais e discriminar grupos marginais, como a comunidade LGBT +. Este ensaio abordará como os algoritmos contribuem para marginalizar vozes e experiências na Internet.
O desenvolvimento da tecnologia revolucionou a comunicação, permitindo que pessoas de todos os segmentos da sociedade se comunicem mais do que nunca.
No entanto, há um lado inverso deste desenvolvimento, que é que muitas minorias ainda estão subrepresentadas e excluídas do discurso principal.
Por exemplo, membros da comunidade queer enfrentam há muito tempo estigmas e preconceitos na sociedade, o que significa que suas vozes são frequentemente abafadas ou completamente ignoradas. Uma forma de isso se manifestar é o preconceito algoritmico, em que programas de computador projetados para filtrar conteúdo podem inadvertidamente excluir perspectivas estranhas.
Existem várias formas em que algoritmos reproduzem preconceitos sociais e discriminação contra vozes estranhas na Internet. Primeiro, alguns algoritmos dependem dos dados gerados pelo usuário para determinar qual conteúdo deve ser prioritário ou recomendado aos usuários. Isso pode levar a um ponto de vista homogêneo que domina a conversa, porque aqueles que não se identificam como heterossexuais podem ter menos probabilidade de tratar de determinados temas ou compartilhar suas opiniões na Internet.
Além disso, algoritmos podem usar modelos de aprendizado de máquina que analisam modelos de voz e comportamento existentes para informar suas decisões sobre o conteúdo a promover. Isso pode levar à preservação de estereótipos e percepções erradas da comunidade queer.
Outro fator que contribui para este problema é a falta de diversidade entre aqueles que criam esses algoritmos. Muitas empresas de tecnologia não conseguem contratar um número suficiente de funcionários LGBT +, o que significa que não trazem diferentes perspectivas para o processo de desenvolvimento de algoritmos.
Finalmente, as plataformas de redes sociais podem censurar ativamente quir vozes, seja removendo posts ou reduzindo sua visibilidade. Isso pode criar um efeito de câmara de eco quando apenas uma perspectiva é apresentada e outras estão atordoadas.
Por fim, o preconceito algoritmico promove a marginalização de vozes queer na Internet. Para as empresas de tecnologia, é importante lidar com este problema contratando mais pessoas LGBT + na sua força de trabalho e garantindo a inclusão de seus produtos.
Além disso, as plataformas de redes sociais devem ser responsáveis por seu papel na valorização das vozes na fila. Assim, podemos criar um espaço online mais justo onde todas as vozes podem ser ouvidas e respeitadas igualmente.
Como é que os algoritmos reproduzem o preconceito social e a discriminação contra vozes quir na Internet?
Os processos de decisão algoritmicos que gerenciam os motores de busca e plataformas de redes sociais podem aumentar as vozes heteronormativas e marginalizar as vozes quir devido aos preconceitos incorporados aos dados usados para essas decisões.