Sesgo algorítmico en IA
Los sistemas de IA se utilizan cada vez más para tomar decisiones que afectan a la vida de las personas, incluidas la contratación, la aprobación de préstamos, las solicitudes de vivienda y los resultados de la justicia penal.
Sin embargo, los estudios sugieren que estos algoritmos a menudo perpetúan la discriminación sistémica existente, especialmente contra grupos marginales como la comunidad LGBT. Una de las razones de esto es el sesgo algorítmico que se produce cuando un algoritmo hace predicciones incorrectas basadas en características demográficas en lugar del comportamiento o rendimiento real. Esto puede dar lugar a un trato injusto para las personas que pertenecen a ciertos grupos, incluidos los miembros de la comunidad LGBT.
¿Cómo pueden los algoritmos perpetuar la discriminación contra las comunidades LGBT?
Una de las formas en que los algoritmos pueden perpetuar la discriminación contra las comunidades LGBT es el sesgo de datos. Si los datos de aprendizaje utilizados para crear el algoritmo incluyen patrones históricos de discriminación, esto puede codificar involuntariamente estos prejuicios en el proceso de toma de decisiones.
Por ejemplo, si el algoritmo de contratación está formado en un currículum vitae de empresas que han discriminado históricamente a gays y transgénero, puede suponer erróneamente que estos grupos son menos cualificados que otros. Del mismo modo, si el algoritmo de puntuación de crédito está entrenado en datos de prestamistas que cobran tasas de interés más altas a parejas del mismo sexo, puede predecir incorrectamente que es más probable que incumplan los préstamos.
Otra forma en que los algoritmos pueden perpetuar la discriminación es mediante el sesgo de elección. El algoritmo puede dar preferencia a un solo grupo, seleccionando únicamente aquellos puntos de datos que coincidan con un determinado perfil.
Por ejemplo, un programa de inteligencia artificial diseñado para detectar afirmaciones fraudulentas puede estar dirigido exclusivamente a un lenguaje de género, como «él» y «ella», que puede afectar desproporcionadamente a las personas transgénero.
Finalmente, los algoritmos también pueden ser sesgados debido a las suposiciones de sus diseñadores sobre lo que representa éxito o fracaso.
Por ejemplo, un algoritmo creado por hombres cisgénero directos puede dar prioridad a rasgos relacionados con la masculinidad, como la asertividad, aunque estas cualidades no sean necesarias para el trabajo actual.
Suavizar el desplazamiento algorítmico
Existen varias estructuras para detectar y mitigar el desplazamiento algorítmico en IA. Uno de los enfoques es utilizar herramientas de auditoría que monitoricen cómo los algoritmos toman decisiones e identifiquen cualquier impacto disperso basado en características demográficas. Otro método consiste en recopilar y etiquetar datos de aprendizaje más diversos para que los algoritmos puedan aprender a reconocer patrones de comportamiento en lugar de confiar en patrones históricos de discriminación.
Además, los investigadores pueden crear nuevos modelos que tengan en cuenta las diferencias sistemáticas entre los grupos y probarlos utilizando escenarios reales.
Para reducir el sesgo de selección, los desarrolladores pueden incluir múltiples perspectivas al crear algoritmos y entrenar a sus modelos para reconocer matices y complejidad. También pueden incluir restricciones de equidad en su código, como exigir una representación igual en todos los datos demográficos antes de hacer proyecciones.
Finalmente, los desarrolladores pueden evaluar si adaptan sus modelos a poblaciones específicas, verificándolos en conjuntos de datos invisibles y comparándolos con los procesos de toma de decisiones humanos.
El uso responsable de los algoritmos
El uso responsable de la IA requiere una cuidadosa consideración de sus posibles prejuicios y cómo pueden perpetuar los sistemas de opresión existentes.Reconociendo y resolviendo estos problemas, podemos crear una tecnología que beneficie a todos por igual, incluyendo a los representantes de la comunidad LGBT. A medida que los algoritmos se vuelven cada vez más comunes en nuestras vidas, es crucial asegurar que no fortalezcan las estructuras de poder existentes, sino que nos ayuden a avanzar hacia una sociedad más justa.
¿Cómo puede el sesgo algorítmico en la IA reforzar la discriminación sistémica de las comunidades LGBT y qué marco existe para identificar y mitigar de manera responsable estos prejuicios?
El desplazamiento algorítmico en la inteligencia artificial (IA) se refiere a situaciones en las que los algoritmos se entrenan utilizando datos que pueden contener prejuicios implícitos o explícitos hacia ciertos grupos de personas, incluidos los miembros de la comunidad LGBT. Estos prejuicios pueden conducir a un trato injusto de las personas por su orientación sexual o identidad de género, aumentando la discriminación sistémica contra ellas.