Logo

ZeroOpposite

Contact Us
Search

AI AND GENDER RECOGNITION: EXPLORING POTENTIAL IMPLICATIONS ON SEXUALITY, INTIMACY, AND RELATIONS. ptEN IT FR DE PL TR RU AR JA CN ES

Como é que as tecnologias de inteligência artificial podem aumentar inadvertidamente os preconceitos sociais ao interpretar ou categorizar a identidade de gênero?

A questão de como a inteligência artificial (IA) pode ser usada para reconhecer, interpretar ou categorizar a identidade de gênero é cada vez mais urgente, porque estes sistemas estão se tornando cada vez mais comuns no nosso dia a dia. Embora a IA possa proporcionar muitos benefícios para a sociedade, há também preocupações sobre como ela pode, inadvertidamente, aumentar as normas sociais existentes e preconceitos relacionados com o sexo. Este artigo vai abordar algumas das formas potenciais que isso pode acontecer.

Uma das áreas em que os sistemas de inteligência artificial podem ter dificuldades para apresentar uma identidade de gênero precisa é a tecnologia de reconhecimento facial. O software de reconhecimento facial é frequentemente baseado em conjuntos de dados que foram treinados usando imagens de pessoas de populações predominantemente brancas cisgender. Como resultado, o algoritmo pode não reconhecer exatamente indivíduos pertencentes a pessoas que não se encaixam nesta forma, incluindo aqueles que se identificam fora das duplas tradicionais de gênero.

Por exemplo, as mulheres transgêneros podem ser identificadas erroneamente como homens por causa de seus traços faciais que não correspondem à definição do conjunto de aprendizagem do que constitui a feminilidade. Além disso, indivíduos não nativos podem ser mal marcados como homens ou mulheres, dependendo da opção que eles escolherem durante a configuração. Da mesma forma, sistemas de inteligência artificial desenvolvidos para analisar patterns de voz também podem combater o reconhecimento preciso de vozes de pessoas cuja fala não corresponde às expectativas típicas sobre sua expressão de gênero.

Outro problema com a IA e o reconhecimento de sexo tem a ver com o tratamento da língua. Os algoritmos de tratamento de linguagem natural (NLP, na sigla em inglês) dependem em grande parte de conjuntos de dados de voz escrita e oral que podem conter termos e expressões sexistas ou homofóbicas. Se o sistema de PNL for treinado com esses dados, pode perpetuar estereótipos nocivos e distorções das comunidades marginalizadas.

Por exemplo, se um sistema de IA se depara com uma frase do tipo «ela cozinha bem», ela pode interpretar isso como mais positivo do que se fosse «ele» em vez disso. Isso reforça o papel de gênero e o preconceito em relação ao comportamento adequado de homens e mulheres.

Em alguns casos, o preconceito também pode surgir quando sistemas de inteligência artificial tentam classificar ou classificar elementos baseados em sua suposta identidade de gênero.

Por exemplo, um software de reconhecimento de imagem pode, erroneamente, classificar certos tipos de vestuário como homens ou mulheres, produzindo resultados imprecisos ao tentar identificar o sexo do proprietário. Mesmo produtos ou serviços aparentemente neutros podem ser vítimas de tais erros de rotulagem, potencialmente impedindo o acesso de pessoas que não estão de acordo com as normas tradicionais de gênero.

Para resolver esses problemas, os desenvolvedores devem pensar cuidadosamente como treinar e testar sistemas de IA para precisão e inclusão. Eles devem garantir que os conjuntos de dados de aprendizagem incluam exemplos que representam diferentes grupos e contextos, e evitar se basear exclusivamente em perspectivas e suposições cisgêneros.

Além disso, eles devem ser transparentes em relação a qualquer deslocamento potencial em seus modelos para que os usuários possam tomar medidas para mitigar seus efeitos. Priorizando práticas inclusivas de design, podemos assegurar que as tecnologias de IA não aumentarão inadvertidamente os preconceitos sociais em torno da identidade de gênero.

A IA tem um enorme potencial para revolucionar muitas indústrias, mas também deve ser usada com responsabilidade. Os desenvolvedores devem dar prioridade aos princípios do design inclusivo para que a IA não fortaleça as normas sociais existentes em relação à identidade de gênero. Isso ajudará a criar um mundo mais justo em que todos sejam tratados com respeito e dignidade, independentemente da sua identidade.

Como é que as tecnologias de inteligência artificial podem aumentar inadvertidamente os preconceitos sociais ao interpretar ou categorizar a identidade de gênero?

O desenvolvimento da inteligência artificial (IA) evolui rapidamente, com o crescimento das aplicações em vários setores, incluindo saúde, finanças, educação e, recentemente, estudos de gênero. Uma das áreas em que a IA é usada é a análise da identidade de gênero através da identificação de sinais que normalmente estão associados a cada sexo.