Logo

ZeroOpposite

Contact Us
Search

DIVULGAÇÃO DA COMPLEXIDADE DO PRECONCEITO DA INTELIGÊNCIA ARTIFICIAL E SEUS EFEITOS SOBRE AS PESSOAS LGBT ptEN IT FR DE PL TR RU AR JA CN ES

2 min read Lesbian

Inteligência Artificial (IA) revolucionou muitos setores, incluindo saúde, finanças e educação.

No entanto, também oferece riscos significativos quando usado para discriminar grupos marginais, como pessoas LGBT.

Uma forma de aumentar o preconceito com algoritmos de IA é introduzir dados. Os modelos de aprendizado de máquina são treinados usando grandes conjuntos de dados que contêm padrões e tendências históricas. Estes conjuntos de dados muitas vezes refletem preconceitos sociais e preconceitos que perpetuam a desigualdade.

Por exemplo, se um conjunto de dados de contratação contém principalmente requerentes heterossexuais que têm papéis tradicionais de gênero, o algoritmo pode apoiar essas características em suas previsões, o que pode levar menos pessoas LGBT a serem contratadas.

Outra maneira que a IA pode contribuir para o preconceito são os processos decisórios. Alguns modelos de aprendizado de máquina são baseados em correlações estatísticas entre certos atributos e resultados, como a cor da pele e a criminalidade. Neste caso, pessoas negras podem ser falsamente identificadas como criminosos mais frequentemente do que pessoas brancas devido ao seu tom de pele. Este tipo de racismo sistêmico pode se estender a outras áreas, como o emprego ou a moradia.

Finalmente, um erro humano pode contribuir para resultados de IA não essenciais. Os desenvolvedores devem certificar-se de que não codificam as suas próprias distorções não identificadas no código.

Por exemplo, um programador pode inadvertidamente marcar temas LGBT como «sensíveis» e restringir o acesso a eles durante o treinamento.

Para mitigar esses problemas, os desenvolvedores devem dar prioridade à diversidade no processo de design. Eles devem procurar informações das comunidades LGBT e incluir práticas inclusivas no seu processo de trabalho.

Além disso, eles devem considerar medidas alternativas para reduzir o preconceito, como randomização de dados ou auditoria de algoritmos antes da implantação.

Por fim, testes regulares e manutenção são necessários para detectar e corrigir qualquer erro ao longo do tempo.

Ao eliminar a desigualdade estrutural no design algoritmico, os desenvolvedores podem usar a IA de forma responsável e ética ao promover a inovação.

De que forma a inteligência artificial pode aumentar o preconceito contra as pessoas LGBT e como os desenvolvedores podem resolver essas desigualdades estruturais eticamente no design algoritmático?

Foi demonstrado que a inteligência artificial (IA) aumenta o preconceito contra indivíduos LGBT + através da replicação e do fortalecimento de estruturas sociais existentes que contribuem para a heteronormatividade, cismatividade e binaridades de gênero. A falta de visão e de dados de queer-identidades nos conjuntos de dados de IA curriculares contribui ainda mais para este problema.