La identidad de género es un concepto que se refiere al sentido interno del individuo de ser hombre, mujer, ni unos ni otros, ni unos ni otros. Esto incluye entender su expresión de género, que incluye cómo se presentan física y conductualmente.
Sin embargo, hay varios conceptos erróneos y malentendidos relacionados con este tema, especialmente cuando se trata de la Inteligencia Artificial de la Tecnología (IA).
Uno de esos malentendidos es que los sistemas de IA pueden determinar con precisión la identidad de género basándose exclusivamente en atributos físicos como la altura, el peso, el color del cabello y la altura de la voz. Este supuesto puede dar lugar a cambios involuntarios en los datos utilizados para enseñar estos sistemas, dando lugar a la discriminación de personas que no encajan en los roles tradicionales de género.
Por ejemplo, las personas transgénero pueden ser clasificadas incorrectamente debido a las incoherencias entre su sexo percibido y asignado, resultando en consecuencias negativas como negación de servicios de salud o oportunidades de empleo.
Otro problema surge de algoritmos de IA diseñados para analizar expresiones faciales y lenguaje corporal para reacciones emocionales durante momentos íntimos. Estos sistemas pueden interpretar el comportamiento de manera diferente dependiendo de las normas culturales, fortaleciendo así los estereotipos dañinos sobre las mujeres que expresan más emociones que los hombres durante los contactos sexuales. Tales conclusiones pueden conducir a un diagnóstico incorrecto del estado de salud mental o a una evaluación inexacta del consentimiento en situaciones íntimas.
Además, algunos chatbots de inteligencia artificial utilizan el procesamiento de lenguaje natural para entender las solicitudes del usuario y responder correctamente. Si estos bots están programados con términos específicos de género obsoletos, pueden generar respuestas insensibles u ofensivas, perpetuando los prejuicios sociales existentes.
Además, los chatbots pueden desconocer la identidad no binaria y no proporcionar opciones inclusivas, lo que excluye a una gran parte de la población.
Para resolver estos problemas, los investigadores deben desarrollar tecnologías de IA que tengan en cuenta las diferentes perspectivas y experiencias en relación con la identidad de género. También deben tener en cuenta el impacto del uso de conjuntos de datos históricos al crear nuevos modelos y tener en cuenta los comentarios de las comunidades LGBTQ +. Al hacerlo, podemos asegurarnos de que nuestra tecnología refleje con precisión la creciente comprensión de la identidad de género por parte de la sociedad y cree espacios seguros para que todas las personas exploren su verdadero «yo».
¿Cómo pueden las tecnologías de inteligencia artificial aumentar involuntariamente los prejuicios sociales o los malentendidos sobre la identidad de género?
Una forma potencial de aumentar involuntariamente los prejuicios sociales o malentendidos sobre la identidad de género por parte de las tecnologías de inteligencia artificial es su capacidad de aprender de modelos en datos. Si los datos de aprendizaje utilizados para crear estos sistemas incluyen ejemplos de estereotipos de género o prejuicios, los modelos obtenidos pueden perpetuar estos prejuicios en lugar de desafiarlos.