Logo

ZeroOpposite

Contact Us
Search

COMO PODEMOS RESOLVER O PROBLEMA DO PRECONCEITO ALGORITMICO CONTRA PESSOAS LGBT NA INTELIGÊNCIA ARTIFICIAL? ptEN IT FR DE PL TR RU AR JA CN ES

Quais são as estruturas para identificar e mitigar o preconceito algoritmico contra pessoas LGBT na inteligência artificial e até que ponto elas são eficazes na prática?

Preconceito algoritmico refere-se à tendência dos algoritmos de aprendizado de máquina de produzir resultados injustos com base em certas características, tais como raça, sexo, idade, orientação sexual, religião, etc. Isso pode acontecer quando os dados usados para treinar esses algoritmos são desligados ou quando os algoritmos contêm erros de codificação que os levam a tomar decisões erradas. Nos últimos anos, a percepção de que o preconceito algoritmico pode afetar grupos marginais, como pessoas LGBT, que podem enfrentar discriminação no emprego, moradia, saúde e outras áreas da vida.

Vários marcos foram oferecidos para resolver este problema para identificar e mitigar o preconceito algoritmico contra pessoas LGBT em inteligência artificial. Uma das abordagens é desenvolver ferramentas que controlem a performance dos algoritmos em vários subgrupos dentro de uma organização ou indústria.

Por exemplo, o Fairness Toolkit, desenvolvido pela IBM, fornece um conjunto de métricas para medir a equidade dos modelos de aprendizado de máquina em vários grupos, incluindo os LGBT. Outra abordagem é a utilização de métodos como a justiça contrafactiva, que inclui a modelagem de cenários alternativos para determinar se os resultados teriam ocorrido se o grupo não tivesse sofrido preconceito.

Além disso, alguns pesquisadores sugeriram a utilização de abordagens «concorrentes» para neutralizar o preconceito algoritmico. Isso inclui a formação de um modelo adversário que tenta prever a saída deste sistema de IA, minimizando sua precisão para subpopulações específicas. Ao apresentar este adversário no modelo original, ele está aprendendo a gerar previsões mais justas sem prejudicar a precisão geral.

No entanto, os críticos afirmam que este método pode causar consequências involuntárias e causar preocupações sobre privacidade e segurança.

No entanto, apesar desses esforços, a eficácia dos sistemas existentes permanece limitada na prática. Muitas organizações tentam implementar esses métodos por falta de recursos, experiência ou interesse dos interessados.

Além disso, muitas vezes há prioridades concorrentes e compromissos entre justiça e outros fatores, como precisão, eficiência econômica e escalabilidade.

Por exemplo, pode ser difícil para as empresas equilibrar a necessidade de previsões precisas com o desejo de eliminar preconceito contra determinados grupos.

Em geral, resolver o problema do deslocamento algoritmico requer uma abordagem multilateral que inclua a cooperação entre os círculos acadêmicos, a indústria, o governo e a sociedade civil. Apesar dos progressos, ainda há muito a fazer antes que possamos eliminar completamente a discriminação na inteligência artificial.

Quais são as estruturas para identificar e mitigar o preconceito algoritmico contra pessoas LGBT na inteligência artificial e quão eficazes são na prática?

O problema do preconceito algoritmico contra pessoas LGBT não é novo; os pesquisadores sabem há muito tempo que os sistemas de IA podem perpetuar a discriminação por orientação sexual e identidade de gênero. Um dos fundamentos para identificar esses preconceitos é o paradigma de privacidade e segurança, que enfatiza os problemas de privacidade e segurança como fatores essenciais na compreensão dos preconceitos. Esta estrutura sugere que algoritmos de IA podem refletir preconceitos implícitos nas fontes de dados, incluindo postagens em redes sociais, buscas online e artigos de notícias.