La tecnología de inteligencia artificial ha cambiado los métodos de trabajo y las interacciones de las empresas con sus clientes. Una de las aplicaciones de la IA es la identificación de género, cuando puede determinar si una persona es un hombre o una mujer, en base a su apariencia o comportamiento.
Sin embargo, existe la preocupación de que estos sistemas puedan aumentar los prejuicios sociales sobre la identidad de género y los estereotipos. Esto puede tener graves consecuencias para los grupos marginados que ya sufren discriminación. Este artículo examina cómo los sistemas de IA corren el riesgo de aumentar los prejuicios sociales en la identificación de género y discute formas de mitigar este problema.
Para empezar, los algoritmos de IA dependen de grandes conjuntos de datos para educarse. Estos conjuntos de datos a menudo reflejan prejuicios existentes en la sociedad, lo que significa que pueden perpetuarlos al categorizar o predecir la identidad de género.
Por ejemplo, un software de reconocimiento facial que utiliza imágenes de películas y programas de televisión tiende a identificar erróneamente a las mujeres de color como hombres debido a la limitada representación en estos medios. Del mismo modo, los asistentes de voz que reconocen patrones de voz tienden a subestimar las voces de las mujeres porque muchos de sus acentos y dialectos no están incluidos en los datos de aprendizaje. Además, los modelos de lenguaje entrenados en datos textuales utilizados en búsquedas en línea y publicaciones en redes sociales también muestran sesgo hacia personalidades no binarias.
Además, los algoritmos de IA aprenden detectando patrones en los datos. Utilizan estos modelos para las predicciones, pero si los datos incluyen información sesgada, las predicciones también serán sesgadas.
Por ejemplo, un sistema de inteligencia artificial diseñado para analizar las solicitudes de empleo puede asignar puntuaciones más bajas a las mujeres porque ha sido entrenado en datos históricos que muestran que los candidatos menos calificados eran principalmente hombres. Lo mismo ocurre con otras áreas como la salud, las finanzas y la educación.
Además, algunos sistemas de inteligencia artificial pueden crear nuevas formas de discriminación basadas en la supuesta identidad de género.
Por ejemplo, un asistente virtual programado para proporcionar recomendaciones para sitios de citas puede hacer coincidir a los usuarios con posibles parejas en función de su expresión de género en lugar de su orientación sexual. Esto excluiría a las personas transgénero que no encajan en las categorías binarias.
Sin embargo, hay pasos que podemos tomar para reducir el riesgo de un mayor sesgo social en los sistemas de IA. Un enfoque es asegurar que los datos utilizados para enseñar algoritmos de IA reflejen diferentes perspectivas. Las empresas deben trabajar con comunidades marginadas para recopilar datos más inclusivos y ajustar sus algoritmos en consecuencia. También deben probar sus sistemas de IA utilizando técnicas como la verificación cruzada y el análisis de errores para detectar cualquier sesgo no intencional.
Además, las empresas deberían considerar la posibilidad de crear medidas de protección, como procesos de verificación humana o ofrecer a los usuarios opciones para corregir identidades de género incorrectas.
En conclusión, aunque la IA ha cambiado muchas industrias, su aplicación en la identificación de género es motivo de preocupación por la perpetuación de los prejuicios sociales existentes. Al asegurar que los datos utilizados para enseñar algoritmos de IA reflejen diferentes perspectivas, probándolos para detectar sesgos y crear medidas de protección, las empresas pueden mitigar este problema y poner sus productos a disposición de todos.
¿Cómo corren el riesgo los sistemas de IA de aumentar los prejuicios sociales al categorizar o predecir la identidad de género?
Los sistemas de inteligencia artificial que dependen de datos de fuentes humanas pueden ser entrenados para reconocer atributos específicos relacionados con un determinado sexo, como la longitud del cabello o el tono de voz, que pueden perpetuar estereotipos y prejuicios existentes contra ciertos sexos. Además, si la información personal de una persona se utiliza en el aprendizaje de estos algoritmos, pueden reflejar suposiciones obsoletas sobre roles e identidades de género, dando lugar a predicciones o clasificaciones sesgadas.