Identidad y expresión de género son temas complejos que a menudo incluyen matices e interpretaciones subjetivas. Aunque muchas personas pueden sentirse cómodas expresándose libremente, otras pueden experimentar dificultades debido a presiones sociales o restricciones personales. La inteligencia artificial (IA) puede revolucionar la forma en que las personas identifican y expresan su género, pero también tiene su propio conjunto de problemas y limitaciones. En este artículo examinaremos algunos de estos problemas y discutiremos las formas en que las tecnologías de inteligencia artificial pueden aumentar involuntariamente los prejuicios y malentendidos sobre la identidad y expresión de género.
Uno de los problemas es que los algoritmos de inteligencia artificial se entrenan utilizando grandes cantidades de datos, incluyendo imágenes, texto y grabaciones de audio. Estos datos pueden contener prejuicios o estereotipos implícitos sobre la identidad y las expresiones de género que conducen a errores de interpretación.
Por ejemplo, un algoritmo desarrollado para el reconocimiento facial puede luchar por clasificar con precisión a las personas transgénero, basándose únicamente en rasgos faciales, ya que no encajan en las categorías tradicionales masculinas/femeninas. Del mismo modo, el software de reconocimiento de voz puede clasificar incorrectamente las voces no binarias como masculinas o femeninas, perpetuando la idea de que solo existen dos sexos.
Otro problema es que los sistemas de inteligencia artificial pueden fortalecer los estereotipos de género interpretando el lenguaje de manera binaria.
Por ejemplo, un chatbot diseñado para responder preguntas sobre la elección de moda puede clasificar incorrectamente ciertas prendas de vestir como pertenecientes exclusivamente a uno u otro sexo, limitando así la capacidad de los usuarios.
Además, los mecanismos de recomendación basados en la inteligencia artificial pueden recomendar productos o servicios basados en visiones obsoletas de roles de género, por ejemplo, ofrecer solo proyectiles deportivos tradicionalmente masculinos para niños o productos de belleza para niñas.
Además, los Sistemas de Inteligencia Artificial pueden promover involuntariamente normas de género rígidas a través de su interacción con las personas.
Por ejemplo, los asistentes virtuales pueden usar términos de género como «él» o «ella», incluso cuando se refieren a personas que se identifican como ninguno o ambos. Del mismo modo, los dispositivos domésticos con control de voz pueden requerir que los usuarios elijan entre voces femeninas y masculinas, lo que puede ser excepcional para quienes no cumplan con estas opciones binarias.
En conclusión, aunque la IA puede dar a las personas la oportunidad de expresarse de manera creíble, también conlleva el riesgo de aumentar involuntariamente los prejuicios y malentendidos sobre la identidad y expresión de género. Para reducir estos riesgos, los desarrolladores deben trabajar para que sus algoritmos sean entrenados usando diferentes conjuntos de datos y no tengan prejuicios implícitos. También deben considerar cómo interactúa su tecnología con los usuarios y tratar de crear experiencias inclusivas que respeten todas las identidades.
¿Cómo pueden las tecnologías de inteligencia artificial aumentar involuntariamente los prejuicios o malentendidos sobre la identidad y expresión de género?
Las tecnologías de inteligencia artificial pueden aumentar involuntariamente los prejuicios mediante el análisis de datos que no son representativos de todos los sexos, razas, etnias y culturas. Esto puede dar lugar a resultados inexactos cuando se identifican ciertos rasgos o características. Además, los algoritmos de IA pueden aprender de sesgos y prejuicios humanos que pueden perpetuar estereotipos y conceptos erróneos existentes.