Preconceito algoritmico na IA
Os sistemas de IA são cada vez mais usados para tomar decisões que afetam a vida das pessoas, incluindo a contratação, aprovação de empréstimos, pedidos de moradia e resultados criminais.
No entanto, estudos mostram que estes algoritmos muitas vezes perpetuam a discriminação sistêmica existente, especialmente em relação a grupos marginais, como a comunidade LGBT. Uma das razões para isso é o preconceito algoritmico, que ocorre quando um algoritmo faz previsões erradas com base em características demográficas, e não em comportamento real ou desempenho. Isso pode levar ao tratamento injusto de pessoas que pertencem a grupos específicos, incluindo membros da comunidade LGBT.
Como é que os algoritmos podem perpetuar a discriminação contra comunidades LGBT?
Uma das formas que os algoritmos podem perpetuar a discriminação contra comunidades LGBT é o preconceito de dados. Se os dados de aprendizagem usados para criar um algoritmo incluem modelos históricos de discriminação, isso pode inadvertidamente codificar esses preconceitos no processo decisório.
Por exemplo, se um algoritmo de contratação é treinado em currículos de empresas que historicamente discriminaram gays e transgêneros, ele pode supor erroneamente que esses grupos são menos qualificados do que outros. Da mesma forma, se o algoritmo de escrutínio de crédito for treinado com dados de credores que cobram taxas de juros mais elevadas de casais do mesmo sexo, pode não prever corretamente que é mais provável que eles cometam um default nos empréstimos.
Outra maneira que os algoritmos podem perpetuar a discriminação é o preconceito da escolha. Um algoritmo pode preferir um único grupo, selecionando apenas os pontos de dados que correspondem a um perfil específico.
Por exemplo, um programa de inteligência artificial projetado para detectar alegações fraudulentas pode ser focado exclusivamente na linguagem de gênero, tais como «ele» e «ela», que podem afetar pessoas transgêneros de forma desproporcional.
Finalmente, algoritmos também podem ser preconceituosos devido a suposições de seus designers sobre o que representa sucesso ou fracasso.
Por exemplo, um algoritmo criado por homens cisgêneros diretos pode priorizar traços relacionados com a masculinidade, como a pressão, mesmo que essas qualidades não sejam necessárias para o trabalho atual.
Flexibilizar deslocamento algoritmico
Existem várias estruturas para detectar e suavizar o deslocamento algoritmico na IA. Uma das abordagens consiste em usar ferramentas de auditoria que monitorizam como os algoritmos tomam decisões e identificam qualquer impacto divergente baseado em características demográficas. Outro método consiste em coletar e rotular dados de aprendizagem mais variados, para que os algoritmos possam aprender a reconhecer modelos de comportamento em vez de se basear em modelos históricos de discriminação.
Além disso, os pesquisadores podem criar novos modelos que levem em conta as diferenças sistemáticas entre os grupos e testá-los usando cenários reais.
Para reduzir o deslocamento de seleção, os desenvolvedores podem incluir várias perspectivas ao criar algoritmos e ensinar seus modelos a reconhecer nuances e complexidades. Eles também podem incluir restrições de justiça no seu código, como a exigência de uma visão igualitária em todos os dados demográficos antes de fazer previsões.
Finalmente, os desenvolvedores podem avaliar se eles não estão ajustando seus modelos a grupos específicos da população, verificando-os em conjuntos de dados invisíveis e comparando com os processos de decisão humanos.
Uso responsável de algoritmos
O uso responsável da IA requer um exame cuidadoso de seus potenciais preconceitos e como eles podem perpetuar os sistemas de opressão existentes.Reconhecendo e resolvendo esses problemas, podemos criar uma tecnologia que beneficie igualmente todos, incluindo os membros da comunidade LGBT. Como os algoritmos estão a tornar-se cada vez mais comuns nas nossas vidas, é fundamental garantir que eles não fortaleçam as estruturas de poder existentes e, em vez disso, nos ajudem a avançar para uma sociedade mais justa.
Como o preconceito algoritmico na IA pode aumentar a discriminação sistêmica das comunidades LGBT e quais são os marcos para identificar e aliviar esses preconceitos de forma responsável?
O deslocamento algoritmico na inteligência artificial (IA) refere-se a situações em que os algoritmos são treinados usando dados que podem conter preconceitos implícitos ou explícitos contra determinados grupos de pessoas, incluindo membros da comunidade LGBT. Esses preconceitos podem levar a um tratamento injusto das pessoas baseado na sua orientação sexual ou identidade de gênero, aumentando a discriminação sistêmica contra elas.