AI pode ser usado para automatizar tarefas que exigem tratamento de linguagem natural (NLP), tais como bate-bots de suporte ao cliente. Esses bate-papos são frequentemente treinados usando conjuntos de dados que contêm uma grande quantidade de dados de várias fontes, incluindo postagens em redes sociais e fóruns online, onde as pessoas discutem suas experiências sobre identidade de gênero. Quando isso acontece, a IA pode inadvertidamente reproduzir conceitos errados ou mesmo estereótipos nocivos sobre pessoas transgêneros. Isto porque os algoritmos que controlam esses sistemas dependem dos modelos que eles encontram nos dados de aprendizagem e podem eventualmente aumentar esses preconceitos sem perceber.
Por exemplo, se um conjunto de dados contém comentários negativos sobre a aparência de pessoas transgêneros, isso pode fazer com que o bate-papo faça comentários sensíveis ao falar com elas. Da mesma forma, se um conjunto de dados incluir uma linguagem obsoleta ou suposições sobre papéis de gênero, um bate-bot pode tirar conclusões ou julgamentos errados com base nesses preconceitos. Outra maneira de a IA perpetuar mal-entendidos em torno da identidade de gênero é o reconhecimento visual. Sabe-se que o software de reconhecimento facial luta contra a identificação de indivíduos não nativos por falta de dados integrados de aprendizagem sobre a expressão de gênero, além de opções binárias masculinas/femininas. Isso pode levar a práticas excepcionais, como forçar pessoas a usar seus nomes legítimos em vez de pronomes preferenciais, o que pode tornar a sua identidade inválida.
Além disso, a tecnologia de reconhecimento facial normalmente é usada em medidas de segurança, como a verificação no aeroporto, o que pode levar a discriminação de indivíduos que não correspondem às noções tradicionais de masculinidade ou feminilidade. O problema vai além dos sistemas de IA. Em alguns casos, os próprios desenvolvedores de IA podem ter inclinação inconsciente em direção a certos sexos, o que os leva a desenvolver produtos que reforçam a dinâmica de poder existente na sociedade. Estes são apenas alguns exemplos de como a IA pode inadvertidamente promover o sexismo e a cismatividade. Para combater este problema, é importante que as empresas que desenvolvem ferramentas de IA se lembrem dos seus potenciais efeitos sobre os grupos marginalizados e que todas as vozes sejam ouvidas durante o processo de desenvolvimento. Os desenvolvedores também devem trabalhar em estreita colaboração com especialistas de comunidades insuficientemente representadas, que podem dar uma ideia de quaisquer problemas básicos que devem ser resolvidos antes de lançar novos produtos.
Em geral, embora a IA ofereça muitas oportunidades de inovação, devemos manter a vigilância sem permitir que ele fortaleça estereótipos nocivos relacionados à identidade de gênero.
Como é que a IA pode inadvertidamente reproduzir preconceitos ou mal-entendidos em relação à identidade de gênero?
O uso da inteligência artificial (IA) pode potencialmente levar à perpetuação de preconceitos e percepções erradas sobre a identidade de gênero, devido aos dados utilizados para o seu aprendizado. Estes dados podem refletir preconceitos contra a identidade de gênero, o que pode levar o sistema de IA a reproduzir esses preconceitos na tomada de decisões.