¿Puede un sistema algorítmico amplificar o suprimir las voces queer? Esta cuestión ha sido discutida durante años en los círculos de la informática, pero todavía no hay una respuesta clara. Por un lado, parece que los algoritmos pueden ayudar a identificar y promover comunidades marginales como la comunidad LGBTQ +. Por otro lado, también pueden reforzar los prejuicios existentes y agravar la discriminación contra estos grupos.
Los algoritmos son fórmulas matemáticas diseñadas para resolver problemas. Aceptan los datos y dan resultados basados en estos insumos. En los últimos años han cobrado cada vez más importancia en ámbitos como las finanzas, la salud, la educación y la política. Pero cuando se trata de reforzar o suprimir las voces queer, su papel se complica.
Una forma de aumentar las voces queer es utilizar sistemas de recomendación. Estos sistemas ofrecen artículos, videos u otros medios que pueden parecer interesantes para los usuarios. Si notan patrones en lo que la gente lee o mira, pueden adaptar las recomendaciones para reflejar esos intereses. Esto puede incluir contenido orientado a consultas que de otro modo podría ser difícil de encontrar.
Sin embargo, estos algoritmos no siempre funcionan como se suponía.
Por ejemplo, algunos estudios han demostrado que los recomendadores pueden excluir el contenido de ciertos autores si utilizan un lenguaje específico. Otros pueden mostrar anuncios dirigidos a hombres cisgénero, lo que dificulta a las personas transgénero encontrar información relevante.
Además, estos sistemas pueden perpetuar estereotipos sobre el campo y la sexualidad. Pueden sugerir que todos quieren ver ideas tradicionales sobre la relación romántica entre un hombre y una mujer, lo que limita la apariencia de identidades anormales. Del mismo modo, pueden sugerir que todas las mujeres quieren ver lecciones de maquillaje, ignorando una variedad de estándares de belleza.
Para resolver este problema, las empresas han comenzado a desarrollar algoritmos más inclusivos. Algunas plataformas ahora tienen en cuenta factores como la raza, el origen étnico y la discapacidad a la hora de crear ofertas de contenido. Otros permiten a los usuarios personalizar sus preferencias especificando categorías de identificadores.
Sin embargo, todavía hay muchas oportunidades de mejora.
Los algoritmos también juegan un papel importante en la persecución de personas extrañas en Internet. La retórica del odio, el doxing (intercambio público de información personal) y otras formas de abuso se han convertido en algo común en las redes sociales. Estas plataformas a menudo se basan en algoritmos de aprendizaje automático para etiquetar publicaciones potencialmente ofensivas. Pero a veces no reconocen palabras y acciones dañinas.
Además, los sistemas algorítmicos pueden contribuir indirectamente a la discriminación de comunidades LGBTQ +.
Por ejemplo, los sitios de reclutamiento a menudo usan palabras clave para hacer coincidir a los candidatos con posiciones abiertas. Si estas palabras clave excluyen los términos relacionados con identidades no binarias o poliamorosas, esto puede conducir a un desplazamiento.
En general, los sistemas algorítmicos no pueden ser completamente neutrales con respecto a la amplificación o supresión de los votos queer. Aunque tienen la capacidad de apoyar la diversidad, deben ser cuidadosamente diseñados y probados para prevenir efectos no deseados. Los encargados de formular políticas y los encargados de formular políticas deben garantizar que estos instrumentos se utilicen de manera responsable y equitativa.
¿Los sistemas algorítmicos pueden ser neutrales cuando amplifican o silencian los votos queer?
El fortalecimiento de las voces queer ha sido un problema constante durante muchos años, cuando la gente a menudo ha enfrentado discriminación, prejuicios y exclusión de la sociedad básica. Si bien la tecnología puede parecer una solución prometedora para resolver este problema, hay razones para creer que no puede hacerlo de manera totalmente neutral. Los sistemas algorítmicos son desarrollados por personas que tienen sus propios prejuicios y creencias que pueden formar la forma en que interpretan los datos y toman decisiones.