Logo

ZeroOpposite

Contact Us
Search

ESTUDIO DE CÓMO LOS ALGORITMOS PERPETÚAN LAS NORMAS REPRESIVAS CONTRA LOS VOTOS QUEER EN LOS CONSEJOS DE RELACIONES EN LÍNEA esEN IT FR DE PL TR PT RU AR JA CN

3 min read Queer

Internet es elogiado por su capacidad para unir a personas de todo el mundo y crear un entorno en el que todos puedan tener derecho a votar.

Sin embargo, no siempre es así. Los algoritmos que gobiernan internet tienden a reproducir prejuicios sociales contra voces extrañas, limitando su visibilidad y dificultando su escucha. En este artículo veremos cómo los algoritmos perpetúan estos prejuicios y qué se puede hacer al respecto.

Para empezar, definiremos el término «queer». Queer se refiere a cualquier persona que no se identifique como heterosexual o cisgénero. Esto incluye a lesbianas, gays, bisexuales, transexuales, personas no binarias, intersexuales y asexuales, entre otros. También abarca a personas que se identifican como pansexuales, poliamoras, quincas y todo lo que va más allá de las normas tradicionales. Estos grupos enfrentan discriminación y acoso todos los días, incluso en Internet.

Los algoritmos funcionan escaneando texto y analizando plantillas. Están diseñados para proporcionar a los usuarios resultados relevantes basados en lo que están buscando.

Sin embargo, si el algoritmo está entrenado con datos que priorizan las perspectivas directas, blancas y masculinas, no reconoce voces extrañas.

Por ejemplo, si un usuario busca un «consejo de relación», el algoritmo puede mostrar artículos escritos por hombres sobre citas con mujeres porque son los artículos más utilizados. Esto excluye voces extrañas que pueden llevar a la desinformación y a un mayor aislamiento.

Otra forma en que los algoritmos refuerzan los prejuicios sociales es mediante la publicidad dirigida. Las empresas utilizan algoritmos para analizar el historial de visitas y el comportamiento de los usuarios para mostrar anuncios adaptados a sus intereses. Si el algoritmo identifica a alguien como natural, puede mostrar anuncios de vestidos de novia o artículos para bebés. A la inversa, si el algoritmo identifica a alguien como un queer, puede mostrarle anuncios de eventos LGBTQ + o sitios de citas. Esto crea una falsa sensación de normalidad en torno a la heteronormatividad, dificultando la conexión de personas extrañas entre sí.

Finalmente, los algoritmos pueden promover estereotipos dañinos sobre personas extrañas. Los motores de búsqueda pueden ofrecer artículos que perpetúan estereotipos negativos sobre las personas transgénero, por ejemplo, los niños transgénero se confunden en su identidad de género o las personas transgénero son intrínsecamente peligrosas. Esto confirma la idea de que ser queer es anormal y esto debe evitarse.

Entonces, ¿cómo arreglamos esto? Una solución es diversificar los datos utilizados para enseñar algoritmos. Empresas como Google han tomado medidas en esta dirección, incluyendo mostrar imágenes más diversas en los resultados de búsqueda y agregar etiquetas para identificar el contenido LGBTQ +.

Sin embargo, esto en sí mismo no resolverá el problema. Las voces queer necesitan ser activamente buscadas e incorporadas a los espacios en línea. Esto significa crear plataformas específicas para los queeres, donde puedan compartir libremente sus puntos de vista sin temor a la censura o la discriminación. También significa animar a los aliados a aumentar las voces extrañas en las redes sociales y en otros lugares.

En conclusión, los algoritmos no son neutrales; reflejan los prejuicios de la sociedad, tanto conscientes como inconscientes. Reconociendo esto, podemos tomar medidas para hacer de Internet un espacio más seguro para todas las personas, independientemente de su sexualidad o identidad de género. Trabajemos juntos para crear un mundo donde todos tengan una voz escuchada y respetada.

¿Cómo reproducen los algoritmos los prejuicios sociales contra las voces queer en Internet?

Los algoritmos pueden reforzar los prejuicios sociales contra las voces queer en las plataformas en línea porque a menudo se les enseña con datos que reflejan perspectivas y normas heteronormativas. Esto significa que los algoritmos pueden ser difíciles de reconocer y clasificar el contenido como queer, lo que puede llevar a que se omita o no se presente lo suficiente.