Os algoritmos são programas de computador que podem realizar certas tarefas sem a participação humana. Eles trabalham analisando grandes quantidades de dados e encontrando padrões para a tomada de decisões. Estes padrões podem ser baseados em tendências históricas ou hipóteses estatísticas. Os algoritmos foram usados para identificar risco de crédito, previsão do tempo, otimização das cadeias de fornecimento, recomendação de música, detecção de fraudes e até diagnóstico de doenças.
No entanto, eles também perpetuam preconceitos sociais e discriminam grupos minoritários. Este artigo vai investigar como os algoritmos reproduzem preconceitos morais contra identidades inconsistentes e como lidar com esses preconceitos.
Uma forma de os algoritmos reproduzirem preconceitos morais é usar classificadores binários. Classificadores binários dividem pessoas em categorias como homem/mulher, preto/branco, hetero/gay, abed/deficiente etc. Em seguida, atribuem a cada categoria um conjunto de características que podem corresponder ou não à realidade.
Por exemplo, um algoritmo projetado para detectar criminosos pode classificar qualquer pessoa tatuada como criminosa, independentemente do seu comportamento real. Isso pode levar a um alvo desproporcional para determinados grupos, incluindo aqueles que não correspondem aos papéis tradicionais de gênero.
Outra forma de os algoritmos reproduzirem preconceitos morais é usando o aprendizado de máquina. O aprendizado de máquina inclui o aprendizado de modelos em conjuntos de dados extensivos e permite-lhes aprender com erros passados.
No entanto, se o conjunto de dados estiver incompleto ou deslocado para um grupo, o modelo dará resultados imprecisos para outros grupos.
Por exemplo, a tecnologia de reconhecimento facial muitas vezes identifica equivocadamente mulheres negras porque ela foi treinada principalmente em homens brancos. Da mesma forma, os algoritmos de contratação podem favorecer candidatos com nomes comuns, como John Smith, em vez de candidatos com nomes mais étnicos.
Para combater esses preconceitos, precisamos aumentar a variedade de conjuntos de dados usados por algoritmos. Devemos coletar e analisar dados de grupos subrepresentados, incluindo pessoas de cor, pessoas LGBT +, imigrantes, deficientes e minorias religiosas. Também devemos ensinar modelos em vários exemplos para que eles reconheçam todos os tipos de experiência humana.
Além disso, precisamos verificar os algoritmos existentes sobre precisão e justiça, garantindo que nenhum grupo seja discriminado.
Finalmente, devemos responsabilizar as empresas quando seus produtos perpetuam estereótipos nocivos. Ao tomar essas medidas, podemos criar uma sociedade mais justa, onde cada pessoa tenha acesso igual a oportunidades e recursos.
Como é que os algoritmos reproduzem preconceitos morais contra identidades inconsistentes?
Foi demonstrado que os algoritmos repetem preconceitos morais contra identidades inconsistentes devido à sua dependência de conjuntos de dados que muitas vezes refletem preconceitos humanos programadores e normas sociais. Por exemplo, ao programar um algoritmo para um software de reconhecimento facial, os desenvolvedores geralmente treinam o sistema usando imagens de culturas ocidentais onde os rostos brancos são mais representados do que outras raças.