Los algoritmos son programas informáticos que pueden procesar datos para resolver problemas. Trabajan sobre fórmulas matemáticas y lógica. Los algoritmos se utilizan en todas partes, desde motores de búsqueda hasta canales de redes sociales y aplicaciones de citas en línea. Pero, ¿cómo reflejan los algoritmos los prejuicios sociales que marginan las voces queer?
En este artículo exploro cómo los prejuicios algorítmicos afectan a las personas queer y cómo perpetúan la desigualdad. También daré ejemplos de escenarios reales en los que personas extrañas han sido discriminadas debido a sesgos algorítmicos.
Finalmente, ofreceré algunas soluciones para reducir el sesgo algorítmico.
Sesgo algorítmico
Los algoritmos son desarrollados por personas que pueden inconscientemente introducir sus propios prejuicios en el código. Esto significa que los algoritmos pueden reflejar normas sociales y prejuicios que a menudo marginan las voces queer.
Por ejemplo, un sitio web de compras en línea puede mostrar a hombres y mujeres diferentes anuncios basados en estereotipos de género sobre lo que deben comprar. Del mismo modo, el algoritmo de solicitud de empleo puede favorecer a los solicitantes directos en lugar de extraños porque la empresa cree que la heterosexualidad es más común en la industria.
Ejemplos de desplazamiento algorítmico
Un ejemplo reciente de desplazamiento algorítmico fue cuando Tinder presentó las estimaciones de «Elo» para coincidir con los usuarios. La evaluación de Elo debe medir la compatibilidad entre dos personas.
Sin embargo, resultó que el algoritmo favorecía a los individuos blancos, cisgénero, heteronormativos, a pesar de que estas características no formaban parte de los criterios de cumplimiento. Como resultado, muchas personas extrañas se sintieron excluidas de la plataforma y la abandonaron por completo.
Otro ejemplo es la tecnología de reconocimiento facial que se ha demostrado que identifica incorrectamente a las personas trans y no binarias como el sexo que se les asignó al nacer. Esto puede conducir a situaciones peligrosas en las que los agentes de la ley usan datos incorrectos para arrestar o acosar a alguien.
Soluciones para reducir el sesgo algorítmico
Para reducir el sesgo algorítmico, las empresas deben ser transparentes en cuanto a cómo funcionan sus algoritmos y recoger una variedad de comentarios de los usuarios. También necesitan contratar desarrolladores con diferentes experiencias y puntos de vista para asegurar que todas las voces estén representadas en el proceso de diseño.
Finalmente, deben implementar controles de calidad fiables para verificar el sesgo antes de lanzar nuevos productos o actualizaciones.
En conclusión, los algoritmos pueden perpetuar prejuicios sociales contra personas extrañas, reflejando normas y prejuicios. Las empresas deben tomar medidas para reducir este sesgo, siendo transparentes con respecto a sus algoritmos e incluyendo diferentes puntos de vista en el desarrollo. Si queremos crear una sociedad más justa, debemos abordar el problema del desplazamiento algorítmico de frente.
¿Cómo reflejan los algoritmos los prejuicios sociales que marginan las voces queer?
Una de las maneras en que los algoritmos pueden reflejar prejuicios sociales es diseñándolos e implementándolos. A medida que los algoritmos son creados por las personas, pueden incluir ciertos valores y creencias que son comunes en la sociedad. Esto significa que es más probable que tengan una ventaja sobre otras, como la heteronormatividad o el cisgenderismo.