Logo

ZeroOpposite

Contact Us
Search

SEXUALIDAD/SEXUALIZACIÓN Y AI: CÓMO LOS ALGORITMOS PUEDEN CONDUCIR A SESGOS CONTRA LAS MINORÍAS esEN IT FR DE PL TR PT RU AR JA CN

Los algoritmos son programas informáticos que pueden realizar ciertas tareas sin la participación humana. Trabajan analizando grandes cantidades de datos y encontrando patrones para tomar decisiones. Estos patrones pueden basarse en tendencias históricas o probabilidades estadísticas. Los algoritmos se han utilizado para identificar el riesgo crediticio, predecir el tiempo, optimizar las cadenas de suministro, recomendar música, detectar fraudes e incluso diagnosticar enfermedades.

Sin embargo, también perpetúan prejuicios sociales y discriminan a los grupos minoritarios. Este artículo examinará cómo los algoritmos reproducen prejuicios morales contra identidades no conformes y explorará formas de contrarrestar estos prejuicios.

Una de las formas en que los algoritmos reproducen prejuicios morales es mediante el uso de clasificadores binarios. Los clasificadores binarios dividen a las personas en categorías como hombre/mujer, negro/blanco, natural/gay, abed/discapacitado, etc. A continuación, asignan a cada categoría un conjunto de características que pueden coincidir o no con la realidad.

Por ejemplo, un algoritmo diseñado para detectar delincuentes puede clasificar a cualquier persona con tatuajes como un delincuente, independientemente de su comportamiento real. Esto podría dar lugar a un objetivo desproporcionado para determinados grupos, incluidos los que no se ajustan a las funciones tradicionales de género.

Otra forma en que los algoritmos reproducen prejuicios morales es mediante el aprendizaje automático. El aprendizaje automático incluye el aprendizaje de modelos en amplios conjuntos de datos y les permite aprender de errores pasados.

Sin embargo, si el conjunto de datos es incompleto o está desplazado hacia un grupo, el modelo producirá resultados inexactos para otros grupos.

Por ejemplo, la tecnología de reconocimiento facial a menudo identifica erróneamente a las mujeres negras porque ha sido entrenada principalmente en hombres blancos. Del mismo modo, los algoritmos de contratación pueden favorecer a candidatos con nombres comunes, como John Smith, en lugar de candidatos con nombres más sonados desde el punto de vista étnico.

Para combatir estos prejuicios, necesitamos aumentar la variedad de conjuntos de datos utilizados por los algoritmos. Debemos recopilar y analizar datos de grupos subrepresentados, incluyendo personas de color, personas LGBTQ +, inmigrantes, discapacitados y minorías religiosas. También debemos educar a los modelos en diferentes ejemplos para que reconozcan todo tipo de experiencias humanas.

Además, debemos verificar los algoritmos existentes de precisión y equidad, asegurando que ningún grupo sea discriminado.

Finalmente, debemos responsabilizar a las empresas cuando sus productos perpetúan estereotipos dañinos. Al dar estos pasos, podemos crear una sociedad más justa, donde cada persona tenga igual acceso a oportunidades y recursos.

¿Cómo reproducen los algoritmos los prejuicios morales contra las identidades no conformes?

Se ha demostrado que los algoritmos repiten prejuicios morales contra identidades no conformes debido a su dependencia de conjuntos de datos que a menudo reflejan prejuicios de programadores humanos y normas sociales. Por ejemplo, al programar un algoritmo para un software de reconocimiento facial, los desarrolladores generalmente enseñan el sistema usando imágenes de culturas occidentales, donde los rostros blancos se presentan con más frecuencia que otras razas.