Os algoritmos de contratação baseados em tecnologia podem reproduzir desvios quirfóbicos sob a fachada neutra?
Algoritmos de contratação baseados em tecnologia são projetados para analisar dados de candidatos e mapeá-los com vagas de emprego. Eles procuram tornar o processo de contratação mais eficiente e menos sujeito a erros humanos, como preconceito inconsciente.
No entanto, eles podem ter algumas limitações que podem levar à reprodução de preconceitos quirfóbicos sob a fachada neutra. Neste artigo, nós vamos analisar como esses preconceitos acontecem, seus efeitos sobre as pessoas LGBT + e formas de mitigá-los.
Como funcionam os algoritmos tecnológicos de contratação
Algoritmos tecnológicos de contratação usam técnicas de ciência de dados para analisar grandes conjuntos de dados. Eles retiram as funções apropriadas dos currículos e aplicativos, definem os modelos e compactuam com os requisitos de trabalho. Algoritmos avaliam habilidades, experiência, educação e outros fatores que ajudam a prever o desempenho. Eles também comparam os candidatos entre si com base nesses critérios.
Quirfobia no recrutamento
Quirfobia trata de discriminação ou preconceito contra pessoas que se identificam como lésbicas, gays, bissexuais, transexuais ou não. É uma forma ativa de opressão que afeta todos os lados da vida, incluindo as oportunidades de emprego. De acordo com estudos recentes, as relações quirfóbicas prevalecem entre os trabalhadores heterossexuais e os gerentes, reduzindo os salários e reduzindo o número de promoções para os funcionários LGBT +.
Por exemplo, 38% dos trabalhadores LGBT + disseram ter enfrentado discriminação no local de trabalho por orientação sexual ou identidade de gênero em 2019.
Reprodução de preconceitos quirfóbicos sob a fachada neutra
Algoritmos tecnológicos de contratação podem reproduzir preconceitos quirfóbicos, concentrando-se em características não essenciais ou favorecendo determinados grupos em comparação com outros.
Por exemplo, eles podem dar mais peso aos traços tradicionais masculinos ou femininos, como liderança ou trabalho de equipe, associados à heteronormatividade. Esses preconceitos são incorporados ao processo de aprendizagem do algoritmo, reforçados por funcionários anteriores e reproduzidos em vários setores.
Impacto sobre os indivíduos LGBT +
Reprodução de preconceitos quirfóbicos sob a fachada neutra tem implicações significativas para as pessoas que procuram trabalho. Eles enfrentam maiores obstáculos na busca de emprego, promoção e promoção de carreira. Isso faz com que a taxa de desemprego e o desemprego aumentem, o estresse aumenta e a satisfação do trabalho diminua. O impacto é ainda pior para os subgrupos minoritários da comunidade LGBT +, como os transgêneros ou os que vivem com HIV/SIDA.
Flexibilizar preconceito quirfóbico
Para suavizar preconceito quirfóbico em algoritmos de contratação baseados em tecnologia, as organizações devem tomar medidas ativas:
- Verifique o design do algoritmo e certifique-se de que ele não perpetua estereótipos nem favorece certas características demográficas.
- Inclua métricas de diversidade no processo de contratação, incluindo orientação sexual e identidade de gênero.
- Treine os gerentes e recrutadores a reconhecer preconceitos implícitos e a enfrentá-los ativamente.
- Colabore com grupos de defesa dos interesses dos LGBT + para identificar as melhores práticas e promover a inclusão.
Algoritmos tecnológicos de contratação podem ajudar empresas a tomar decisões mais apropriadas sobre candidatos.
No entanto, eles precisam ser cuidadosamente projetados e monitorados para evitar a reprodução de preconceitos quirfóbicos que afetam desproporcionalmente comunidades marginais. Ao resolver estes problemas, podemos criar um local de trabalho mais justo, onde todos os funcionários prosperam com base nas suas habilidades e contribuições.
Os algoritmos de contratação baseados em tecnologia podem reproduzir preconceitos quirfóbicos sob a fachada neutra?
Algoritmos tecnológicos de contratação podem ser desenvolvidos para reduzir preconceitos quirfóbicos resultantes de preconceitos e estereótipos humanos, mas nem sempre podem ser bem sucedidos nisso. Estes sistemas dependem dos dados para tomar decisões sobre os candidatos, e se estes dados forem preconceituosos, isso perpetua esses preconceitos em seus processos decisórios.