¿Cómo pueden las tecnologías de inteligencia artificial aumentar involuntariamente los prejuicios sociales al categorizar o interpretar la identidad de género?
La inteligencia artificial (IA) ha logrado avances significativos en los últimos años y actualmente se utiliza para diversos fines, como sistemas de reconocimiento facial, asistentes de voz, chatbots y vehículos autónomos.
Sin embargo, una de las áreas donde la IA puede perpetuar inadvertidamente los prejuicios sociales es su capacidad para clasificar o interpretar identidades de género. En este ensayo se analizará cómo los algoritmos de IA pueden ser entrenados para reconocer los géneros específicos y su impacto en la sociedad.
Una de las formas en que los algoritmos de IA amplifican involuntariamente los prejuicios sociales es mediante el uso de modelos de aprendizaje automático. Estos modelos están diseñados para aprender de conjuntos de datos y hacer predicciones basadas en los patrones que se encuentran en estos conjuntos de datos.
Sin embargo, si estos conjuntos de datos se desplazan hacia determinados sexos, pueden dar lugar a algoritmos de IA que se desplazan hacia otros sexos.
Por ejemplo, si un algoritmo de IA es entrenado usando imágenes de hombres y mujeres, puede tener dificultades para reconocer individuos no binarios que no encajan suavemente en ninguna de las categorías. De la misma manera, si un algoritmo de inteligencia artificial es entrenado en patrones de voz de personas con cierto acento o dialecto, puede luchar para entender a personas de diferentes sectores de la sociedad.
Otra forma en que los algoritmos de inteligencia artificial pueden aumentar involuntariamente los prejuicios sociales es mediante el uso del procesamiento de lenguaje natural (NLP). El NLP implica enseñar a las máquinas a entender el lenguaje humano y reaccionar en consecuencia.
Sin embargo, si el texto de entrada contiene un lenguaje sesgado, por ejemplo: «él» o «ella», el resultado puede reflejar este sesgo.
Por ejemplo, si un sistema de IA está programado para interpretar pronombres de género, puede suponer que todas las personas que usan «él» o «ella» son hombres o mujeres, respectivamente, lo que puede llevar a una actitud incorrecta hacia personas transgénero o no binarias.
Además, los Sistemas de Inteligencia Artificial también pueden basarse en datos históricos que reflejen normas culturales o estereotipos sobre roles de género.
Por ejemplo, si el modelo de reconocimiento de imágenes ha sido entrenado en fotografías donde a menudo se representa a las mujeres como amas de casa o enfermeras, esto puede luchar por el reconocimiento de las mujeres profesionales en otros campos. Esto puede ser especialmente problemático para las mujeres que intentan abrirse camino en industrias tradicionalmente masculinas como STEM.
Además, los sistemas de IA utilizados en los procesos de contratación pueden perpetuar inadvertidamente prejuicios sociales, favoreciendo ciertos sexos.
Por ejemplo, el software de reconocimiento facial utilizado para validar a los candidatos a un puesto de trabajo puede no identificar a las personas o mujeres no binarias que no usan maquillaje o vestido de una manera determinada. Del mismo modo, es posible que los asistentes de voz no reconozcan a las mujeres que tienen voces altas o acentos relacionados con regiones específicas.
Para mitigar estos problemas, los investigadores deben asegurarse de que los algoritmos de IA estén diseñados teniendo en cuenta la diversidad. Esto incluye capacitarlos en diferentes conjuntos de datos, probarlos en diferentes poblaciones e incluir retroalimentación de comunidades marginadas.
Además, los desarrolladores deben esforzarse por crear algoritmos que dependan menos del lenguaje de género, y centrarse en la transmisión de conceptos básicos.
Finalmente, la supervisión y revisión humana debe integrarse en los sistemas de IA para prevenir la discriminación basada en la identidad de género.
¿Cómo pueden las tecnologías de inteligencia artificial aumentar involuntariamente los prejuicios sociales en la clasificación o interpretación de la identidad de género?
La creciente prevalencia de las tecnologías de inteligencia artificial (IA) ha permitido a las máquinas realizar diversas tareas que antes estaban reservadas al ser humano. Una de estas tareas es la categorización e interpretación de la identidad de género. Aunque los sistemas de IA están diseñados para ser objetivos e imparciales, pueden aumentar involuntariamente los prejuicios sociales. Esto puede ocurrir cuando los algoritmos utilizados por estos sistemas dependen de conjuntos de datos que contienen información desplazada.