Pessoas LGBT enfrentaram discriminação em vários aspectos de suas vidas por causa da orientação sexual e identidade de gênero.
No entanto, os avanços recentes na tecnologia de inteligência artificial trouxeram novos desafios para esta comunidade. Algoritmos que controlam muitos processos decisórios agora são capazes de gerar resultados com base em modelos de dados que podem potencialmente perpetuar preconceitos. Isso causou preocupação sobre o potencial papel desses algoritmos no fortalecimento dos preconceitos existentes contra os LGBT, o que pode levar a uma maior exclusão de oportunidades, serviços e recursos. Neste artigo, vamos abordar os preconceitos estruturais e algoritmicos existentes nos sistemas de inteligência artificial e discutir estratégias para mitigá-los efetivamente.
Preconceito estrutural
Um dos preconceitos estruturais que existem nos sistemas de inteligência artificial é a falta de representação dos indivíduos LGBT nos conjuntos de dados de aprendizagem. A maioria dos dados de aprendizagem usados para desenvolver algoritmos são coletados a partir de populações heteronormativas, levando a uma perspectiva distorcida do mundo que não reflete exatamente as experiências variadas de pessoas LGBT.
Por exemplo, modelos linguísticos treinados em corpos de texto podem conter linguagens que aumentam estereótipos negativos ou termos ofensivos contra pessoas LGBT que podem influenciar a forma como eles interagem com o sistema. A falta de representação LGBT nos dados de aprendizagem também significa que os sistemas podem não reconhecer as necessidades e preferências dessa comunidade, o que leva a recomendações e serviços não-perfeitos.
Deslocamento algoritmico
Outro tipo de deslocamento em sistemas de IA ocorre devido ao uso de sinais discriminatórios. Elas incluem variáveis como raça, idade, sexo, localização e status socioeconômico, tudo isso pode contribuir para resultados não-essenciais quando usados em conjunto com outros fatores.
Por exemplo, o empregador pode usar um algoritmo para testar os candidatos a um trabalho baseado em certas qualificações, mas se o algoritmo deles for programado para beneficiar candidatos com experiência parecida com os funcionários anteriores (ou seja, homens brancos), isso pode excluir requerentes LGBT qualificados. Da mesma forma, aplicativos de encontro só podem exibir correspondências heterossexuais para usuários, excluindo pessoas estranhas de encontrar parceiros compatíveis.
Estratégias de flexibilização
Várias estratégias podem ser implementadas para garantir que os sistemas de inteligência artificial foram desenvolvidos com base na inclusão:
1. Aumento da representação: Uma forma de aliviar o preconceito estrutural é aumentar a representatividade das pessoas LGBT nos conjuntos de dados de aprendizagem. As empresas devem se esforçar para diversificar sua mão de obra e base de clientes, garantindo que seus produtos refletem uma ampla gama de experiências e perspectivas. Isso pode ser alcançado através de práticas específicas de contratação, parcerias com organizações que representam comunidades subrepresentadas e coleta de dados de diferentes grupos da população.
2. Auditoria regular de modelos: É fundamental controlar constantemente a performance dos sistemas de IA para identificar qualquer preconceito potencial contra pessoas LGBT. Isto inclui a avaliação regular de algoritmos usando critérios objetivos, tais como indicadores de precisão, métricas de erro e árvores de soluções. Identificando e eliminando todas as diferenças no início, as empresas podem prevenir a discriminação sistêmica.
3. As organizações devem fornecer educação continuada e iniciativas de sensibilização para promover a diversidade e a inclusão dos seus grupos.Isso inclui capacitar os funcionários sobre como reconhecer e evitar linguagens e comportamentos preconceituosos, e fornecer recursos para aqueles que podem ser discriminados ou perseguidos.
4. Usando identificadores de deslocamento explícito: para resolver o problema de deslocamento algoritmico, os desenvolvedores podem usar identificadores explícitos, tais como idade, sexo e orientação sexual, para excluir certas variáveis na tomada de decisões.
Por exemplo, o empregador pode criar uma descrição do cargo que especifique «nenhuma preferência» em relação à orientação sexual, em vez de depender exclusivamente do currículo do candidato. Da mesma forma, aplicativos de encontro podem permitir que os usuários filtrem correspondências com base em preferências específicas, em vez de dependerem exclusivamente de configurações padrão.
Para terminar, as distorções estruturais e algoritmáticas na inteligência artificial representam uma ameaça significativa ao acesso das pessoas LGBT às oportunidades, serviços e recursos. As empresas devem tomar medidas ativas para mitigar esses preconceitos aumentando a representação, a auditoria regular de modelos, a promoção da diversidade e a incorporação de identificadores de preconceito explícitos em seus sistemas. Com isso, eles podem garantir que os sistemas de IA são desenvolvidos de acordo com a inclusão, resultando em resultados mais justos para todos.
Quais desvios estruturais e algoritmicos na inteligência artificial perpetuam a discriminação contra pessoas LGBT e como podem ser efetivamente mitigados?
Os desvios estruturais e algoritmicos que são comuns em sistemas de inteligência artificial (IA) podem criar barreiras à representação de pessoas LGBT nos conjuntos de dados usados para aprender esses modelos de IA. Esta falta de representação pode levar a previsões e decisões imprecisas pelos sistemas de IA, o que pode agravar ainda mais a discriminação contra eles.