Logo

ZeroOpposite

Contact Us
Search

PERIGO DE PRECONCEITO DE GÊNERO NA TECNOLOGIA AI: COMO A MÁ INTERPRETAÇÃO PODE TER EFEITOS NOCIVOS ptEN IT FR DE PL TR RU AR CN ES

As tecnologias de inteligência artificial são cada vez mais usadas para interpretar e classificar a identidade de gênero, mas podem ser sujeitas a preconceitos sociais que podem resultar em resultados errados ou prejudiciais. É assim que isto acontece:

1) Conjuntos de dados usados para ensinar algoritmos de inteligência artificial podem conter preconceito devido à relação histórica com determinados sexos ou orientação sexual.

Por exemplo, se um conjunto de dados incluir imagens de mulheres em atividades femininas tradicionais, como cozinhar e limpar, ele pode trazer um algoritmo de inteligência artificial para associar essas tarefas à identidade de gênero feminino.

2) Algoritmos que analisam pattern de voz e características vocais para determinar identidade de gênero também podem depender de estereótipos culturais sobre como homens e mulheres soam. Isso pode levar a uma identificação equivocada ou discriminação de pessoas não-inocentes que não correspondem a esses estereótipos.

3) O software de reconhecimento facial é outra área em que podem surgir preconceitos de gênero, especialmente quando se trata de reconhecer traços faciais neutros de gênero ou indivíduos transgêneros cuja aparência não corresponde ao sexo atribuído ao nascimento.

4) Além do sexo, algoritmos de inteligência artificial podem também perpetuar outras formas de desigualdade baseadas em raça, idade, status de deficiência e origem socioeconômica.

Por exemplo, um algoritmo desenvolvido para detectar emoções em quadros de vigilância pode falsamente rotular pessoas negras como agressivas ou criminosas com mais frequência do que pessoas brancas.

5)

Finalmente, os sistemas de inteligência artificial são desenvolvidos por pessoas com preconceito, o que pode se refletir na forma como eles programam suas tecnologias. A falta de representatividade das mulheres e das minorias nos setores tecnológicos foi atribuída ao preconceito na elaboração da IA.

Para resolver esses problemas, os pesquisadores devem trabalhar na criação de conjuntos de dados mais variados e treinar algoritmos de IA para reconhecer expressões anormais de gênero. As empresas também devem auditar seus sistemas de IA para verificar o preconceito e implementar medidas de proteção para prevenir a discriminação.

Em última análise, a sociedade precisa desafiar a atitude ultrapassada em relação ao sexo e à sexualidade, para que todos se sintam vistos e respeitados em nosso mundo cada vez mais digital.

Como é que as tecnologias de inteligência artificial podem reproduzir preconceitos sociais ao interpretar ou categorizar a identidade de gênero?

Inteligência Artificial (IA) é aprendida em grandes quantidades de dados que refletem modelos de comportamento humano e preconceitos. Por isso, os sistemas de IA podem copiar preconceitos presentes no material original usado para a sua aprendizagem, incluindo a identidade de gênero.