Como é que os algoritmos aumentam os preconceitos sociais que marginalizam as vozes quir na Internet?
A Internet está cada vez mais acessível para as pessoas em todo o mundo, permitindo-as comunicar com outras pessoas que compartilham interesses e experiências semelhantes.
No entanto, apesar deste progresso, alguns grupos ainda enfrentam discriminação e preconceito devido à sua identidade. Os indivíduos quir estão entre os mais afetados por esses preconceitos, porque muitas vezes a sociedade os considera um desvio da normalidade. Assim, estão a tentar encontrar lugares onde possam expressar-se abertamente sem serem julgados ou ridicularizados. É aqui que entram em jogo os algoritmos; criam oportunidades de conexão, mas também perpetuam estereótipos nocivos e isolamento. Os algoritmos aumentam os preconceitos sociais que marginalizam as vozes quir na Internet através de anúncios direcionados, filtragem algoritmica e resultados de busca personalizados.
Publicidade programada inclui o uso de dados do usuário para exibir anúncios adaptados à demografia específica.
Por exemplo, se uma empresa quiser vender produtos relacionados com a identidade de gênero, ela pode ser focada em usuários transgêneros com base no seu histórico de visitas e ativismo nas redes sociais. Embora esta abordagem aumente a frequência das transições, também reforça a ideia de que certos grupos de pessoas são menos desejáveis do que outros. Ele envia uma mensagem de que a transexualidade é algo especial ou de nicho, e não parte da vida diária, o que contribui para o estigma e a marginalização. O mesmo vale para aplicativos de encontro que selecionam usuários baseados na orientação sexual; enquanto estas plataformas oferecem espaços seguros para que pessoas LGBT + conheçam parceiros parecidos, eles também isolam pessoas heterossexuais que podem não saber ou não ter a certeza de uma relação não heteronormativa.
Filtragem algoritmica baseia-se em técnicas de aprendizado de máquina para supervisionar conteúdo para as preferências de cada usuário. Infelizmente, este processo pode eliminar diferentes perspectivas, pois os algoritmos sugerem que os espectadores querem ver com base em interações anteriores com tais materiais.
Por exemplo, um algoritmo pode recomendar vídeos sobre o lançamento de histórias apenas para um público simples, porque é tudo o que eles viram no passado. Depois, os indivíduos queer tornam-se invisíveis quando procuram tais temas, porque o algoritmo sugere que eles já sabem tudo o que precisam saber sobre eles. Isso cria um ciclo em que apenas as narrativas cisgêneras e heterossexuais permanecem visíveis na Internet, silenciando vozes alternativas.
Os resultados de pesquisa personalizados funcionam da mesma forma, mostrando os resultados mais adequados aos interesses individuais, em vez de dar oportunidades iguais a diferentes perspectivas. Se alguém está à procura de uma história de amor lésbica, provavelmente verá artigos envolvendo lésbicas brancas e mulheres cisgêneras, em vez de uma variedade de ideias. Esta exceção reforça a percepção de que a estranheza só é aceitável se corresponder às expectativas da sociedade, limitando a visibilidade para além dos ideais básicos.
Para terminar, os algoritmos reforçam os preconceitos sociais que marginalizam vozes quir na Internet através de publicidade alvo, filtragem algoritmica e resultados de pesquisa personalizados. Estes processos criam um ciclo em que apenas certas identidades são visíveis, aumentando o estigma e a discriminação contra aqueles que não se enquadram nas normas tradicionais. Para combater este problema, as empresas devem garantir inclusão em diferentes plataformas, oferecendo recursos adaptados a todas as características demográficas e evitando suposições sobre o que os usuários querem ver.
Como é que os algoritmos aumentam os preconceitos sociais que marginalizam as vozes quir na Internet?
As pessoas muitas vezes sugerem que a tecnologia é imparcial, mas reflete valores e crenças humanas. O algoritmo baseado nas plataformas de Internet com as quais interagimos é regularmente aprendido por modelos de comportamento e preferências dos usuários ao longo do tempo. Por exemplo, se certos tipos de conteúdo e estilos de comunicação são mais populares entre pessoas heterossexuais do que outros, esses patters serão refletidos nos sistemas de recomendação usados por essas plataformas.