Los desplazamientos algorítmicos pueden definirse como los prejuicios que surgen de los datos utilizados para enseñar algoritmos que luego perpetúan los mismos desplazamientos a través de sus predicciones y decisiones. En los últimos años ha aumentado la preocupación sobre cómo los prejuicios algorítmicos pueden influir en las percepciones de las personas sobre el género y la sexualidad en Internet. En este ensayo se abordará cómo el sesgo algorítmico puede reforzar sutilmente los supuestos normativos sobre el campo y la sexualidad, especialmente en el contexto de las aplicaciones de citas en línea y las plataformas de redes sociales.
Es importante tener en cuenta que muchos servicios en línea dependen en gran medida del contenido del usuario, como perfiles y publicaciones, para proporcionar recomendaciones personalizadas y resultados de selección de citas. Estos sistemas están diseñados para crear la ilusión de elegir mientras se mantiene el desequilibrio de poder entre usuarios y plataformas.
Por ejemplo, cuando un usuario crea un perfil en una aplicación de citas, se les presenta una serie de posibles partidos en función de su ubicación, rango de edad, intereses y otros factores demográficos.
Sin embargo, es posible que este proceso se vea afectado por datos sesgados o estereotipos obsoletos, lo que resulta en oportunidades limitadas para aquellos que no encajan en las categorías tradicionales.
Un ejemplo de sesgo algorítmico en el ámbito de las citas en línea proviene de OkCupid, una popular plataforma de citas que utiliza un sistema de mapping para conectar a los usuarios en función de intereses comunes. Un estudio realizado por Data & Society encontró que el algoritmo OkCupid favorece a las parejas heterosexuales en lugar de a las personas LGBTQ + debido a patrones históricos en los datos de los usuarios. Como resultado, a pesar de que más de la mitad de todos los nuevos matrimonios actualmente incluyen al menos una pareja que se identifica como algo más que directo, a los usuarios que no se identifican como cisgénero se les pueden presentar menos opciones que quienes lo hacen.
Del mismo modo, los algoritmos utilizados por Facebook e Instagram para determinar qué contenido aparece en las cintas de los usuarios suelen estar sesgados hacia los grupos marginales.
Por ejemplo, un estudio publicado en Nature Communications encontró que las mujeres son más propensas que los hombres a recibir anuncios de productos para adelgazar, lo que perpetúa normas de género dañinas alrededor de la imagen corporal. Además, los estudios han demostrado que los estadounidenses negros son más propensos que los blancos a ver anuncios de discriminación por vivienda en las redes sociales, lo que aumenta la desigualdad racial. Este tipo de prejuicios algorítmicos pueden llevar a estrechar las perspectivas y reforzar los estereotipos negativos sobre algunos grupos.
En conclusión, aunque muchos servicios en línea afirman ofrecer personalización y opciones, en realidad pueden limitar la capacidad de sus usuarios para investigar fuera de las normas establecidas sobre género y sexualidad. Al examinar el principio de funcionamiento de estos sistemas, podemos empezar a cuestionar los supuestos subyacentes y tratar de crear alternativas más inclusivas.
Además, es importante que los usuarios sepan cómo utilizar y compartir su información personal para que puedan tomar decisiones informadas sobre lo que prefieren compartir en Internet.
¿Las distorsiones algorítmicas pueden fortalecer sutilmente los supuestos normativos sobre el campo y la sexualidad en Internet?
Los desplazamientos algorítmicos pueden definirse como errores sistemáticos que surgen de decisiones sesgadas tomadas por algoritmos de aprendizaje automático basados en conjuntos de datos que contienen prejuicios humanos. Estos prejuicios pueden tener consecuencias no deseadas para las comunidades marginadas y dar lugar a discriminación. En el caso de plataformas en línea como las redes sociales, estos prejuicios pueden afectar la forma en que las personas interactúan entre sí y forman relaciones, incluidas las relacionadas con el género y la sexualidad.