Preconceito algoritmico refere-se a uma situação em que o sistema de computador não trata algumas pessoas como outras, baseado em suas características, tais como sexo, raça, idade ou orientação sexual. Esse preconceito pode surgir em sistemas de inteligência artificial usados para tomar decisões, como a contratação de algoritmos ou softwares de reconhecimento facial. Uma das formas mais significativas de deslocamento algoritmico está relacionada com o tratamento da população lésbica, gay, bissexual e transgênero (LGBT). Neste contexto, as pessoas LGBT podem ser discriminadas pela forma como estas tecnologias as interpretam e representam.
Por exemplo, um software de reconhecimento facial pode ter dificuldades para reconhecer pessoas que não são seguras ou que não correspondem a estereótipos típicos de gênero. Como resultado, eles podem ser mal classificados, causando danos potenciais em áreas como saúde, emprego ou justiça criminal.
Existem várias razões pelas quais grupos LGBT são particularmente vulneráveis ao preconceito algoritmico. Em primeiro lugar, faltam dados sobre suas experiências, o que pode levar à subrepresentação nos conjuntos de dados de aprendizagem. Em segundo lugar, os algoritmos podem se basear em modelos históricos que refletem preconceitos sociais, como sugerir que homens devem usar trajes e mulheres vestidos. Em terceiro lugar, pode haver diferenças culturais entre as diferentes comunidades LGBT, o que pode tornar a situação ainda mais difícil.
Finalmente, pode haver tentativas deliberadas de excluir pessoas LGBT de certos sistemas, seja por censura deliberada ou exclusão implícita.
Para resolver esses problemas, os marcos éticos podem guiar o desenvolvimento de tecnologias justas. Estas estruturas devem atender às necessidades de vários grupos, incluindo pessoas LGBT. Eles também devem promover a responsabilização e a transparência, garantindo que os desenvolvedores sejam responsáveis pelas consequências do seu trabalho.
Além disso, essas estruturas devem priorizar a privacidade e a segurança, protegendo informações pessoais ao fornecer acesso a serviços críticos.
Finalmente, trabalhando com defensores LGBT e outras partes interessadas, podemos criar uma tecnologia mais inclusiva que beneficie a todos.
Como as distorções algoritmicas na IA reproduzem a discriminação social dos grupos LGBT e quais os marcos éticos que podem guiar o desenvolvimento de tecnologias justas?
O termo «discriminação social» refere-se a qualquer tipo de preconceito e tratamento desigual baseado na orientação sexual ou identidade de gênero de uma pessoa. O preconceito algoritmico nos sistemas de inteligência artificial (IA) pode aumentar essas normas sociais, perpetuando estereótipos e conceitos errados sobre pessoas LGBT.