Logo

ZeroOpposite

Contact Us
Search

DISCRIMINACIÓN POR ORIENTACIÓN SEXUAL EN APLICACIONES DE CITAS ONLINE QUE AFECTAN A USUARIOS LGTBI esEN IT FR DE PL TR PT RU CN

3 min read Lesbian

El sesgo algorítmico es un término utilizado para describir una tendencia de algoritmos o conjuntos de instrucciones que se utilizan para tomar decisiones basadas en insumos, para obtener resultados que favorecen injustamente a ciertos grupos de personas en comparación con otros. Esto puede ocurrir en muchos contextos, incluso cuando se trata de redes sociales como Facebook y Twitter.

Por ejemplo, si un algoritmo está diseñado para recomendar publicaciones basadas en la actividad de los usuarios, puede terminar recomendando publicaciones de hombres directos y cisgénero con más frecuencia que de mujeres o personas LGBT. Esto puede crear un bucle de retroalimentación cuando los usuarios ven menos publicaciones de estos grupos marginales, lo que resulta en una interacción aún menor con ellos, lo que refuerza el sesgo del algoritmo.

Sin embargo, cuando se trata de aplicaciones de citas, este problema se vuelve mucho más insidioso. Las aplicaciones de citas dependen en gran medida de algoritmos para seleccionar usuarios en función de sus preferencias, pero también recopilan una gran cantidad de datos personales sobre los usuarios. Estos datos pueden incluir cosas como edad, sexo, orientación sexual, ubicación e incluso afiliación política. Usando estos datos, la aplicación puede tratar de predecir exactamente qué coincidencias serán interesantes para los usuarios.

Sin embargo, si la aplicación es sesgada hacia las personas LGBT, puede mostrarles menos parejas potenciales que comparten su sexualidad, lo que puede limitar sus capacidades y llevar a la frustración.

El problema va más allá de la simple familiaridad con las aplicaciones. De hecho, se ha descubierto que el sesgo algorítmico penetra en muchos aspectos de la vida cotidiana, desde los sistemas de búsqueda de empleo hasta los puntos de crédito. Y aunque algunos de estos prejuicios pueden parecer benignos, pueden tener graves consecuencias para los usuarios LGBT.

Por ejemplo, un algoritmo que favorece a los usuarios directos en un sistema de búsqueda de empleo puede dificultar que las personas LGBT busquen oportunidades de empleo. Del mismo modo, un algoritmo que discrimina a las personas transgénero a la hora de determinar la solvencia crediticia puede dificultarles obtener préstamos u otras formas de ayuda financiera.

Una forma de combatir el sesgo algorítmico es enseñando los algoritmos mismos. Los sistemas de aprendizaje automático se pueden enseñar a reconocer patrones y tomar decisiones basadas en estos patrones, por lo que los desarrolladores pueden crear programas que están diseñados para minimizar el sesgo. Otra opción es asegurar que los datos utilizados para controlar estos algoritmos sean diversos y representativos de todos los grupos de personas.

Finalmente, los usuarios pueden hablar cuando ven casos de sesgo algorítmico e informarlos a las empresas responsables. Trabajando juntos, podemos crear un entorno en línea más justo para todos.

¿Cómo repite el sesgo algorítmico la discriminación de los usuarios LGBT fuera de línea?

El sesgo algorítmico se refiere al proceso mediante el cual los algoritmos informáticos se programan para tomar decisiones que pueden ser sesgadas contra ciertos grupos de personas en base a su raza, sexo, orientación sexual, edad, discapacidad u otros factores. En el contexto de las aplicaciones de citas en línea, esto significa que es probable que el algoritmo de la aplicación muestre a los usuarios LGBT menos coincidencias potenciales que los usuarios no LGBT, incluso si tienen preferencias e intereses similares.