Este artigo discute como o design de sistemas de inteligência artificial (IA) pode codificar inadvertidamente suposições heteronormativas que são crenças sobre papéis de gênero e normas sexuais que refletem valores tradicionais, muitas vezes patriarcais. Ele explora várias formas que tais preconceitos podem se manifestar na tecnologia de IA e oferece estratégias potenciais para identificá-los e corrigi-los.
A heteronormatividade se refere à expectativa de que as pessoas vão manter determinados papéis de gênero e entrar em relações românticas monogâmicas e heterossexuais, com os homens normalmente dominando esses acordos. Estas suposições estão profundamente enraizadas em muitas culturas e sociedades em todo o mundo e foram reforçadas por séculos de socialização e elaboração ideológica. No entanto, nos últimos anos, o reconhecimento dos efeitos nocivos das estruturas heteronormativas sobre pessoas que não estão de acordo com estas normas tem aumentado, o que tem aumentado o número de pedidos de desmantelamento.
Uma das áreas em que este problema é particularmente grave é o desenvolvimento de sistemas de inteligência artificial que dependem em grande parte de conjuntos de dados e algoritmos que podem se basear em preconceitos culturais anteriores.
Por exemplo, modelos de aprendizado de máquina usados para gerar bate-papos ou assistentes virtuais podem incluir modelos de linguagem e respostas que sugerem uma estrutura de gênero binário, perpetuando estereótipos sobre masculinidade e feminilidade. Da mesma forma, o software de reconhecimento facial pode lutar para identificar com precisão os sexos não nativos, excluindo-os de serviços e recursos importantes.
Felizmente, existem várias metodologias para detectar e corrigir esses preconceitos em sistemas de inteligência artificial. Uma das abordagens consiste em analisar a sensibilidade para avaliar como os diferentes grupos populacionais podem interagir com o sistema e identificar quaisquer zonas cegas ou de discriminação potenciais. Outra estratégia inclui o desenvolvimento de conjuntos alternativos de dados que refletem uma variedade de perspectivas e experiências, como indivíduos transexuais ou intersexuais.
Além disso, os pesquisadores podem usar técnicas como treinamento em competição para expor os modelos de IA a cenários que desafiam seus pressupostos básicos, permitindo que eles se adaptem e se desenvolvam adequadamente.
Em geral, resolver o problema do deslocamento heteronormativo no design de IA requer tanto a conscientização da sua generalidade quanto a criatividade na definição de soluções eficazes. Ao priorizar a inclusão e a justiça no desenvolvimento da tecnologia, podemos ajudar a criar um futuro em que todas as pessoas possam participar plenamente na nossa sociedade cada vez mais digital, sem medo de discriminação ou marginalização.
Como o design de sistemas de IA pode codificar de forma involuntária suposições heteronormativas e quais são as metodologias para detectar e corrigir esses preconceitos?
O termo «heteronormatividade» refere-se à crença de que a heterossexualidade é a única orientação sexual aceitável que normalmente é apoiada por instituições sociais, tais como leis matrimoniais e estruturas familiares. Isso pode ser problemático quando se trata de projetar sistemas de inteligência artificial (IA), pois eles podem inadvertidamente codificar essa inclinação em seus algoritmos e processos decisórios.