Logo

ZeroOpposite

Contact Us
Search

¿CÓMO REFUERZAN LOS ALGORITMOS LOS PREJUICIOS SOCIALES QUE MARGINAN LAS VOCES QUEER EN INTERNET? esEN IT FR DE PL TR PT RU AR JA CN

3 min read Queer

¿Cómo refuerzan los algoritmos los prejuicios sociales que marginan las voces queer en Internet?

Internet es cada vez más accesible para las personas de todo el mundo, lo que les permite comunicarse con otras personas que comparten intereses y experiencias similares.

Sin embargo, a pesar de este progreso, algunos grupos todavía enfrentan discriminación y prejuicios debido a su identidad. Los individuos queer se encuentran entre los más afectados por estos prejuicios, porque la sociedad a menudo los considera una desviación de la norma. Así, luchan por encontrar lugares donde puedan expresarse abiertamente sin condenar ni burlarse. Aquí entran en juego los algoritmos; crean oportunidades de conexión, pero también perpetúan estereotipos nocivos y el aislamiento. Los algoritmos refuerzan los prejuicios sociales que marginan las voces queer en Internet a través de anuncios dirigidos, filtros algorítmicos y resultados de búsqueda personalizados.

La publicidad dirigida incluye el uso de datos de usuario para mostrar anuncios adaptados a una demografía específica.

Por ejemplo, si una empresa desea vender productos relacionados con la identidad de género, puede dirigirse a usuarios transgénero en función de su historial de visitas y actividad en las redes sociales. Aunque este enfoque aumenta la frecuencia de las transiciones, también refuerza la idea de que ciertos grupos de personas son menos deseables que otros. Envía el mensaje de que la transgénero es algo especial o nicho, no parte de la vida cotidiana, lo que contribuye al estigma y la marginación. Lo mismo ocurre con las aplicaciones de citas que seleccionan a los usuarios en función de la orientación sexual; si bien estas plataformas ofrecen espacios seguros para que las personas LGBTQ + se reúnan con socios de ideas afines, aíslan aún más a las personas heterosexuales que pueden no saber o no estar seguras de una relación no heteronormativa.

El filtrado algorítmico se basa en técnicas de aprendizaje automático para supervisar el contenido para las preferencias de cada usuario. Desafortunadamente, este proceso puede excluir diversas perspectivas, ya que los algoritmos sugieren que los espectadores quieren ver en base a interacciones previas con materiales similares.

Por ejemplo, un algoritmo puede recomendar videos sobre la liberación de historias solo a los espectadores simples, porque eso es todo lo que han visto en el pasado. Luego, los individuos queer se vuelven invisibles al buscar tales temas, ya que el algoritmo sugiere que ya saben todo lo que hay que saber sobre ellos. Esto crea un ciclo en el que sólo las narrativas cisgénero, heterosexuales, permanecen visibles en Internet, silenciando las voces alternativas.

Los resultados de búsqueda personalizados funcionan de manera similar, mostrando los resultados más acordes con los intereses individuales en lugar de dar igualdad de oportunidades a diferentes perspectivas. Si alguien busca una «historia de amor lésbico», lo más probable es que vea artículos que involucren a lesbianas blancas y mujeres cisgénero en lugar de una variedad de representaciones. Esta excepción refuerza la noción de que la extrañeza sólo es aceptable si se ajusta a las expectativas de la sociedad, limitando la visibilidad más allá de los ideales básicos.

En conclusión, los algoritmos refuerzan los prejuicios sociales que marginan las voces queer en Internet a través de anuncios dirigidos, filtros algorítmicos y resultados de búsqueda personalizados. Estos procesos crean un ciclo en el que sólo se ven ciertas identidades, aumentando el estigma y la discriminación contra quienes no encajan en las normas tradicionales. Para combatir este problema, las empresas deben garantizar la inclusión en las diferentes plataformas, ofreciendo recursos adaptados a todas las características demográficas y evitando asumir lo que los usuarios quieren ver.

¿Cómo refuerzan los algoritmos los prejuicios sociales que marginan las voces queer en Internet?

La gente a menudo asume que la tecnología es imparcial, pero refleja valores y creencias humanas. El algoritmo detrás de las plataformas de Internet con las que interactuamos aprende regularmente de los patrones de comportamiento y preferencias de los usuarios a lo largo del tiempo. Por ejemplo, si ciertos tipos de contenido y estilos de comunicación son más populares entre las personas heterosexuales que otros, entonces estos patrones se reflejarán en los sistemas de recomendación utilizados por estas plataformas.