Como é que as tecnologias de inteligência artificial podem não querer aumentar os preconceitos sociais ao categorizar ou interpretar a identidade de gênero?
Inteligência Artificial (IA) tem feito grandes progressos nos últimos anos e está sendo usado para vários fins, como sistemas de reconhecimento facial, assistentes de voz, bate-bocas e veículos autônomos.
No entanto, uma das áreas em que a IA pode, inadvertidamente, perpetuar preconceitos sociais é sua capacidade de classificar ou interpretar identidades de gênero. Este ensaio vai considerar como os algoritmos de IA podem ser treinados para reconhecer os ganders específicos e seus efeitos na sociedade.
Uma forma de aumentar inadvertidamente os preconceitos sociais com algoritmos de IA é usar modelos de aprendizado de máquina. Estes modelos são desenvolvidos para aprender com conjuntos de dados e fazer projeções com base nos modelos encontrados nesses conjuntos de dados.
No entanto, se esses conjuntos de dados forem deslocados para determinados sexos, eles podem levar a algoritmos de IA que são deslocados para outros sexos.
Por exemplo, se um algoritmo de IA for treinado usando imagens de homens e mulheres, ele pode ter dificuldades para reconhecer indivíduos que não se encaixam cuidadosamente em nenhuma das categorias. Da mesma forma, se um algoritmo de inteligência artificial é treinado em patternes de voz de pessoas com um certo sotaque ou dialeto, ele pode tentar compreender pessoas de vários segmentos da sociedade.
Outro método para que algoritmos de inteligência artificial possam aumentar inadvertidamente os preconceitos sociais é usar o tratamento de linguagem natural (NLP). NLP inclui a formação de máquinas para compreender a linguagem humana e responder adequadamente.
No entanto, se o texto de entrada tiver uma linguagem preconceituosa, como «ele» ou «ela», o resultado pode refletir esse preconceito.
Por exemplo, se um sistema de IA for programado para interpretar pronomes de gênero, pode sugerir que todas as pessoas que usam «ele» ou «ela» são homens ou mulheres, portanto, o que pode levar a atitudes erradas para pessoas transgêneros ou não.
Além disso, os Sistemas de Inteligência Artificial também podem se basear em dados históricos que refletem normas culturais ou estereótipos sobre papéis de gênero.
Por exemplo, se um modelo de reconhecimento de imagem foi treinado em fotos onde mulheres são frequentemente retratadas como donas de casa ou enfermeiras, isso pode lutar para reconhecer mulheres profissionais em outras áreas. Isso pode ser particularmente problemático para as mulheres que tentam entrar em indústrias tradicionalmente masculinas, como STEM.
Além disso, os Sistemas de IA utilizados nos processos de contratação podem, inadvertidamente, perpetuar preconceitos sociais favorecendo determinados sexos.
Por exemplo, o Software de Reconhecimento Facial usado para testar candidatos ao trabalho pode não identificar indivíduos ou mulheres que não usam maquiagem ou vestido de uma forma específica. Da mesma forma, os assistentes de voz podem não reconhecer mulheres que têm vozes altas ou sotaques associados a regiões específicas.
Para mitigar esses problemas, os pesquisadores devem garantir que os algoritmos de IA foram desenvolvidos com base na diversidade. Isso inclui ensiná-los em vários conjuntos de dados, testá-los em diferentes grupos da população e incluir feedback de comunidades marginalizadas.
Além disso, os desenvolvedores devem se esforçar para criar algoritmos que dependam menos da linguagem de gênero e, em vez disso, focar na transmissão de conceitos básicos.
Por fim, a supervisão humana e a revisão devem ser incorporados aos sistemas de IA para prevenir a discriminação baseada na identidade de gênero.
Como é que as tecnologias de inteligência artificial podem, inadvertidamente, aumentar os preconceitos sociais ao classificar ou interpretar a identidade de gênero?
A crescente prevalência das tecnologias de inteligência artificial (IA) permitiu que as máquinas realizassem várias tarefas que antes eram reservadas para humanos. Uma dessas tarefas é categorizar e interpretar a identidade de gênero. Embora os sistemas de IA tenham sido desenvolvidos para serem objetivos e imparciais, podem, no entanto, aumentar inadvertidamente os preconceitos sociais. Isso pode acontecer quando os algoritmos usados por esses sistemas dependem de conjuntos de dados que contêm informações deslocadas.