El sesgo algorítmico se refiere a un sesgo que puede ocurrir cuando los algoritmos utilizados para tomar decisiones en diferentes áreas, como la contratación, el crédito y la salud, pueden conducir a resultados injustos debido a la entrada sesgada de datos. Existe una creciente preocupación por el impacto potencial del sesgo algorítmico en las personas que pertenecen a grupos marginales como lesbianas, gays, bisexuales, transgénero (LGBT). Este documento analizará las estructuras existentes para identificar y mitigar los sesgos algorítmicos contra las personas LGBT y cuán eficaces son en la práctica.
La primera estructura incluye el estudio de las fuentes de datos utilizadas para enseñar el algoritmo. Esto garantiza que los datos de aprendizaje reflejen con precisión a la población atendida.
Por ejemplo, si el algoritmo de empleo se capacita utilizando el currículum vitae de hombres heterosexuales, puede resultar en resultados sesgados con respecto a los solicitantes LGBT. Para evitarlo, las organizaciones pueden incluir en sus conjuntos de datos de aprendizaje diferentes fuentes de datos que representan todo el género, la orientación sexual y la identidad de género.
Otro enfoque implica el uso de medidas de equidad en el desarrollo del modelo. Estas métricas evalúan si el modelo considera los diferentes subgrupos de la misma manera o favorece a un grupo sobre otro.
Por ejemplo, un indicador de igualdad compara la eficacia de un modelo en diferentes grupos demográficos, mientras que una medida de impacto dispersa detecta cualquier diferencia entre los resultados de los grupos.
Además, se pueden aplicar métodos de postprocesamiento, como el re-pesaje o la calibración, para ajustar la salida en función de la representación del grupo en el conjunto de datos.
Además, las herramientas de explicabilidad pueden ayudar a analizar modelos de caja negra e identificar patrones o correlaciones que pueden causar daño. Al explicar el proceso de toma de decisiones del algoritmo, estas técnicas pueden detectar desplazamientos ocultos que podrían haber pasado desapercibidos de otra manera. La explicabilidad también permite que los algoritmos de auditoría garanticen que no discriminan a ciertos grupos.
Finalmente, la supervisión y evaluación regulares del rendimiento del algoritmo son cruciales para mantener su eficacia. Las organizaciones deben probar constantemente sus algoritmos para verificar posibles sesgos y hacer cambios cuando sea necesario. Esto puede incluir probar el rendimiento del algoritmo en diferentes poblaciones y comparar sus resultados con otros sistemas similares. El monitoreo también ayuda a identificar nuevas formas de sesgo a medida que la sociedad avanza.
Aunque estas estructuras existen para mitigar el sesgo algorítmico, su eficacia es limitada. En primer lugar, la recopilación de una variedad de datos puede ser difícil debido a los problemas de privacidad y accesibilidad de los datos. En segundo lugar, las métricas de equidad no siempre pueden reflejar con precisión los escenarios reales, lo que dificulta la detección de todo tipo de discriminación.
Finalmente, las herramientas de explicación requieren experiencia y tiempo, lo que puede limitar su disponibilidad.
En conclusión, la identificación y mitigación del sesgo algorítmico contra las personas LGBT requiere un enfoque multilateral que incluya un estudio exhaustivo de las fuentes de datos, el uso de medidas de equidad durante el desarrollo del modelo, el uso de herramientas de explicación y el monitoreo regular del rendimiento del algoritmo. Aunque estas estrategias ofrecen cierta protección contra la discriminación, se necesitan más investigaciones para abordar las nuevas formas de sesgo en un mundo cada vez más diverso.
¿Qué estructuras existen para identificar y mitigar el sesgo algorítmico contra las personas LGBT y cuán eficaces son en la práctica?
Se han propuesto muchos marcos para identificar y mitigar el sesgo algorítmico contra las personas LGBT. Uno de estos marcos es la Ontología Formal de Sistemas de Información (FOIS), que define la ontología como «una especificación formal de los conceptos y relaciones que son necesarios para representar el campo del discurso de un área de aplicación específica» (Ram et al., 2015).