Logo

ZeroOpposite

Contact Us
Search

CÓMO EL SESGO ALGORÍTMICO PERPETÚA LA HETERONORMATIVIDAD EN LAS APLICACIONES DE CITAS Y REDES SOCIALES PARA PERSONAS + esEN IT FR DE PL TR PT RU AR JA CN

4 min read Queer

Internet se está convirtiendo en un aspecto cada vez más importante de la vida cotidiana, especialmente para las personas LGBTQ + que pueden enfrentar discriminación y prejuicios en espacios físicos.

Sin embargo, a pesar de los esfuerzos por crear espacios en línea más inclusivos, sigue existiendo el riesgo de que el sesgo algorítmico pueda aumentar los supuestos heteronormativos y contribuir a la desigualdad. Este artículo examinará cómo los algoritmos pueden favorecer sutilmente a las personas cisgénero y heterosexuales, incluso en entornos virtuales diseñados para ser bienvenidos a todas las identidades. Para ello, debatirá sobre el concepto de sesgos y cómo pueden manifestarse en las plataformas digitales, analizará casos de estudio de aplicaciones populares como Grindr y OkCupid y recomendaciones para crear espacios online más igualitarios para todos.

En general, esta parte busca resaltar los desafíos que enfrenta la comunidad queer a la hora de navegar por las citas digitales y la socialización, y promover una mayor conciencia y acción. Al entender cómo funcionan los prejuicios, podemos trabajar para crear experiencias en línea más inclusivas que promuevan la justicia y la igualdad para todos.

Los algoritmos son herramientas importantes utilizadas por muchos sitios web y aplicaciones para ordenar la información, facilitar la comunicación y optimizar el trabajo de los usuarios. Incluyen un conjunto de instrucciones o reglas que guían a las máquinas a través de ciertas tareas, lo que las hace útiles para procesos automatizados, como predecir resultados de búsqueda, clasificar productos basados en evaluaciones de clientes o supervisar cintas de noticias personalizadas. Si bien estos sistemas pueden ser increíblemente útiles, también conllevan el potencial de sesgos - preferencias no intencionales pero comunes que pueden proporcionar injustamente una ventaja a unos grupos sobre otros. Por ejemplo, en términos de citas en línea, un algoritmo puede priorizar perfiles con ciertas palabras clave, imágenes o características, lo que dará lugar a coincidencias que reflejan ideas normativas sobre el campo, la sexualidad, la raza o el tipo de cuerpo. Cuando estos supuestos están codificados en software diseñado para todos, pueden tener implicaciones de largo alcance para aquellos que buscan conexiones fuera de las normas tradicionales.

Uno de los ejemplos conocidos es Grindr, una aplicación popular entre los gays que ha enfrentado críticas por su supuesto racismo y ageísmo. Según un informe de 2018 del periodista Michael Kelly, los usuarios pueden recibir menos mensajes si tienen características «femeninas» o tienen más de 35 años. Esto sugiere que los algoritmos de Grindr favorecen ciertos atributos físicos, al mismo tiempo que excluyen otros basados en criterios arbitrarios. Del mismo modo, OkCupid fue acusado de mostrar resultados racialmente sesgados en los resultados de la comparación, lo que llevó a la compañía a pedir disculpas y cambiar su algoritmo para resolver este problema. En ambos casos se destaca que la tecnología aparentemente neutral puede perpetuar la discriminación y el borrado, lo que provoca que algunos usuarios se sientan marginados o excluidos en otro entorno progresista.

Para crear un espacio digital más justo, los desarrolladores deben tomar medidas para identificar y eliminar los prejuicios en sus algoritmos. Una estrategia consiste en diversificar los conjuntos de datos utilizados para enseñar modelos de aprendizaje automático, asegurando que una amplia gama de identidades, experiencias y perspectivas determinen los procesos de toma de decisiones. Otro enfoque es promover la rendición de cuentas a través de la retroalimentación y la participación de la comunidad, solicitando información a los usuarios para asegurar que los algoritmos se ajusten a las necesidades y preferencias de todas las personas.

Finalmente, las empresas deben invertir en educación contra la discriminación y apoyo a los empleados que trabajan en estos sistemas, dándoles la oportunidad de reconocer y corregir posibles prejuicios antes de que causen daño. Tomando medidas activas como estas, podemos combatir los efectos insidiosos del sesgo algorítmico y promover la inclusión en las plataformas en línea.

¿Los desplazamientos algorítmicos pueden amplificar sutilmente las suposiciones heteronormativas incluso en espacios en línea diseñados para ser inclusivos?

Aunque muchos espacios en línea se están creando deliberadamente con un enfoque en la inclusividad, hay evidencia de que algunas de estas plataformas todavía pueden amplificar sutilmente los supuestos heteronormativos gracias a su diseño algorítmico. Una forma de hacerlo podría ser incorporar un lenguaje codificado que implique normas de género en los chatbots, buscadores y otros sistemas de inteligencia artificial.