Las personas LGBT han sufrido discriminación en diversos aspectos de su vida durante siglos debido a su orientación sexual e identidad de género.
Sin embargo, los últimos avances en la tecnología de inteligencia artificial han traído nuevos desafíos para esta comunidad. Los algoritmos que controlan muchos procesos de toma de decisiones ahora son capaces de generar resultados basados en patrones de datos que potencialmente pueden perpetuar prejuicios. Esto ha generado preocupación sobre el papel potencial de estos algoritmos en el fortalecimiento de los prejuicios existentes contra las personas LGBT, lo que podría llevar a una mayor exclusión de capacidades, servicios y recursos. En este artículo examinaremos los prejuicios estructurales y algorítmicos existentes en los sistemas de inteligencia artificial y discutiremos estrategias para mitigarlos de manera efectiva.
Prejuicio estructural
Uno de los prejuicios estructurales que existen en los sistemas de inteligencia artificial es la falta de representación de las personas LGBT en los conjuntos de datos de aprendizaje. La mayoría de los datos de aprendizaje utilizados para desarrollar algoritmos se recopilan de poblaciones heteronormativas, dando lugar a una perspectiva distorsionada del mundo que no refleja con precisión las diversas experiencias de las personas LGBT.
Por ejemplo, los modelos de lenguaje entrenados en cajas de texto pueden contener un lenguaje que refuerce los estereotipos negativos o los términos ofensivos hacia las personas LGBT que pueden influir en la forma en que interactúan con el sistema. La falta de representación de las personas LGBT en los datos de aprendizaje también significa que los sistemas pueden no reconocer las necesidades y preferencias de esta comunidad, dando lugar a recomendaciones y servicios subóptimos.
Desplazamiento algorítmico
Otro tipo de desplazamiento en los sistemas de IA surge del uso de características discriminatorias. Estos incluyen variables como raza, edad, sexo, ubicación y estatus socioeconómico, todo esto puede contribuir a resultados sesgados cuando se usa en combinación con otros factores.
Por ejemplo, un empleador puede utilizar un algoritmo para validar a los candidatos en función de ciertas calificaciones, pero si su algoritmo está programado a favor de candidatos con experiencia laboral similar a empleados anteriores (es decir, hombres blancos), esto puede excluir a solicitantes LGBT calificados. Del mismo modo, las aplicaciones de citas solo pueden mostrar coincidencias heterosexuales para los usuarios, excluyendo a personas extrañas de la búsqueda de parejas compatibles.
Estrategias de mitigación
Para resolver estos problemas, se pueden implementar varias estrategias para garantizar que los sistemas de inteligencia artificial estén diseñados teniendo en cuenta la inclusión:
1. Aumento de la representación: Una forma de mitigar el sesgo estructural es aumentar la representación de las personas LGBT en los conjuntos de datos de aprendizaje. Las empresas deben esforzarse por diversificar su plantilla y su base de clientes, asegurando que sus productos reflejen una amplia gama de experiencias y perspectivas. Esto puede lograrse mediante prácticas de contratación selectivas, asociaciones con organizaciones representativas de comunidades insuficientemente representativas y la reunión de datos de diferentes grupos de población.
2. Auditoría periódica de modelos: Es fundamental monitorear constantemente el rendimiento de los sistemas de IA para detectar cualquier posible prejuicio contra las personas LGBT. Esto incluye la evaluación regular de algoritmos utilizando criterios objetivos como indicadores de precisión, métricas de errores y árboles de decisión. Al identificar y eliminar cualquier diferencia en una etapa temprana, las empresas pueden prevenir la discriminación sistémica.
3. Las organizaciones deben proporcionar educación continua e iniciativas de sensibilización para promover la diversidad y la participación en la labor de sus grupos.Esto incluye capacitar a los empleados sobre cómo reconocer y evitar el lenguaje y comportamiento sesgado, y proporcionar recursos para quienes pueden ser discriminados o acosados.
4. Uso de identificadores de desplazamiento explícito: para resolver el problema del desplazamiento algorítmico, los desarrolladores pueden utilizar identificadores explícitos, como edad, sexo y orientación sexual, para excluir ciertas variables en la toma de decisiones.
Por ejemplo, un empleador puede crear una descripción de un puesto que indique «no preferencias» con respecto a la orientación sexual en lugar de confiar exclusivamente en el currículum del candidato. Del mismo modo, las aplicaciones de citas pueden permitir a los usuarios filtrar coincidencias en función de ciertas preferencias, en lugar de depender únicamente de la configuración predeterminada.
En conclusión, las distorsiones estructurales y algorítmicas en la inteligencia artificial representan una amenaza significativa para el acceso de las personas LGBT a las capacidades, servicios y recursos. Las empresas deben tomar medidas activas para mitigar estos prejuicios aumentando la representación, auditando modelos regularmente, promoviendo el aprendizaje de la diversidad e introduciendo identificadores claros de prejuicios en sus sistemas. Al hacerlo, pueden garantizar que los sistemas de IA se diseñen teniendo en cuenta la inclusión, lo que redundará en resultados más equitativos para todos.
¿Qué anomalías estructurales y algorítmicas en la inteligencia artificial perpetúan la discriminación contra las personas LGBT y cómo se pueden mitigar de manera efectiva?
Las desviaciones estructurales y algorítmicas, que son comunes en los sistemas de inteligencia artificial (IA), pueden crear barreras para representar a las personas LGBT en los conjuntos de datos utilizados para enseñar estos modelos de IA. Esta falta de representación puede dar lugar a proyecciones y decisiones inexactas por parte de los sistemas de IA, lo que puede agravar aún más la discriminación contra ellos.