A tecnologia de inteligência artificial alterou os métodos de trabalho e interação das empresas com seus clientes. Uma das aplicações da IA é a identificação de gênero, quando ele pode determinar se a pessoa é um homem ou uma mulher baseada em sua aparência ou comportamento.
No entanto, há temores de que esses sistemas possam aumentar os preconceitos sociais em relação à identidade de gênero e estereótipos. Isso pode ter consequências graves para grupos marginalizados que já enfrentam discriminação. Este artigo considera como os sistemas de IA correm o risco de aumentar o preconceito social na identificação de gênero e discute formas de mitigar o problema.
Para começar, os algoritmos de IA dependem de grandes conjuntos de dados para aprender a si mesmos. Estes conjuntos de dados muitas vezes refletem preconceitos existentes na sociedade, o que significa que eles podem perpetuá-los ao categorizar ou prever a identidade de gênero.
Por exemplo, um software de reconhecimento facial que usa imagens de filmes e programas de TV geralmente identifica equivocadamente mulheres de cor como homens devido à representação limitada nestas mídias. Da mesma forma, os assistentes de voz que reconhecem pattern de voz tendem a subestimar as vozes das mulheres, porque muitos dos seus sotaques e dialetos não estão incluídos nos dados de aprendizagem. Além disso, modelos linguísticos ensinados com dados de texto usados em pesquisas on-line e publicações em redes sociais também demonstram preconceito em relação a personalidades não privadas.
Além disso, os algoritmos de IA aprendem a detectar padrões nos dados. Eles usam estes modelos para prever, mas se os dados incluem informações preconceituosas, as previsões também serão preconceituosas.
Por exemplo, um sistema de inteligência artificial projetado para analisar os pedidos de emprego pode atribuir pontos mais baixos às mulheres porque foi treinado com dados históricos que mostram que os candidatos menos qualificados eram principalmente homens. O mesmo vale para outras áreas, como saúde, finanças e educação.
Além disso, alguns sistemas de inteligência artificial podem criar novas formas de discriminação baseadas na suposta identidade de gênero.
Por exemplo, um assistente virtual programado para fornecer recomendações para sites de encontros pode mapear usuários com potenciais parceiros baseados em sua expressão de gênero e não em orientação sexual. Isso excluiria pessoas transgêneros que não se encaixam nas categorias binárias.
No entanto, há medidas que podemos tomar para reduzir o risco de aumentar o preconceito social nos sistemas de IA. Uma das abordagens consiste em garantir que os dados usados para a aprendizagem de algoritmos de IA refletem diferentes perspectivas. As empresas devem trabalhar com comunidades marginalizadas para coletar dados mais inclusivos e ajustar adequadamente seus algoritmos. Eles também devem testar seus sistemas de IA usando técnicas como verificação cruzada e análise de erros para detectar qualquer preconceito involuntário.
Além disso, as empresas devem considerar a possibilidade de criar medidas de proteção, como processos de verificação humanos ou fornecer aos usuários opções para corrigir a identificação de gênero incorreta.
Para terminar, embora a IA tenha mudado muitos setores, sua aplicação na identificação de gênero é preocupante para a perpetuação de preconceitos sociais existentes. Garantindo que os dados usados para aprender algoritmos de IA refletem diferentes perspectivas, testando-os para preconceito e criando medidas de proteção, as empresas podem mitigar o problema e tornar seus produtos acessíveis a todos.
Como os sistemas de IA correm o risco de aumentar os preconceitos sociais ao categorizar ou prever a identidade de gênero?
Sistemas de inteligência artificial que dependem de dados de fontes humanas podem ser treinados para reconhecer atributos específicos associados a um determinado sexo, tais como comprimento de cabelo ou tom de voz, que podem perpetuar estereótipos e preconceitos existentes contra determinados sexos. Além disso, se as informações pessoais de uma pessoa forem usadas no treinamento desses algoritmos, elas podem refletir suposições antiquadas sobre papéis e identidades de gênero, resultando em previsões ou classificações preconceituosas.