Los algoritmos y la moderación de contenido son herramientas importantes que forman la forma en que las personas ven e interactúan entre sí en Internet. Cuando se trata de comunidades queer y sus expresiones, se vuelven cada vez más influyentes a la hora de determinar qué voces se escuchan y cuáles son silenciosas. En plataformas como Facebook, Instagram y TikTok, los usuarios pueden publicar contenido sobre sus experiencias como personas con LGBTQ +, pero no hay garantías de que todos puedan verlo gracias a las decisiones algorítmicas que toman estas empresas en función de los indicadores de compromiso y las recomendaciones de la comunidad. En este artículo examinaremos cómo los algoritmos y la moderación de contenidos afectan la visibilidad de los grupos marginales en los espacios queer, incluidas las personas transgénero de color, que enfrentan altos niveles de discriminación tanto dentro como fuera de la comunidad queer. También discutiremos cómo se pueden reformar estos sistemas para apoyar mejor todas las voces para que nadie se sienta despojado o ignorado al expresarse a través de las redes sociales.
La importancia de los algoritmos y la moderación del contenido
Las redes sociales han cambiado la forma en que las personas se comunican entre sí, permitiéndoles conectarse a través de fronteras físicas y compartir ideas, opiniones y experiencias más fácilmente que nunca.
Sin embargo, también ha creado nuevos desafíos relacionados con la visibilidad, la accesibilidad y la representación, especialmente para grupos marginales como los que se identifican como LGBTQ +. Plataformas como Facebook, Instagram y TikTok confían en gran medida en los indicadores de compromiso de los usuarios, como likes, revisiones, comentarios y folles, para determinar qué publicaciones aparecen en las cintas. Esto significa que el contenido que recibe mucha atención se mostrará más arriba en los resultados de búsqueda o listas de tendencias, mientras que los posts que no causan mucho compromiso pueden no mostrarse en absoluto si alguien no los busca activamente. Cuando se trata de presentar perspectivas extrañas, este sistema puede resultar en una representación insuficiente o incluso borrado si ciertos tipos de contenido no se distribuyen lo suficientemente ampliamente.
Además, muchas plataformas tienen políticas estrictas sobre desnudez y sexualidad, lo que dificulta a los usuarios hablar abiertamente de intimidad sin temor a ser censurados o suspendidos.
Marginalización de las personas transgénero de color
Las personas transgénero ya enfrentan niveles desproporcionados de discriminación, tanto dentro como fuera de sus comunidades, debido a prejuicios sociales contra la disparidad de género. Cuando se agrega una raza a la ecuación, esta lucha se vuelve aún más aguda. Según un estudio del Pew Research Center, las mujeres trans negras tienen el doble de probabilidades de sufrir acoso en internet en comparación con las mujeres trans blancas. También tienden a ganar menos dinero en internet a través de la monetización de las redes sociales debido a prejuicios racistas entre posibles patrocinadores. Además, las plataformas a menudo luchan sobre cómo moderar los contenidos relacionados con el trabajo corporal o sexual que involucra a personas trans, ya que estos temas van más allá de las normas tradicionales relativas a la expresión sexual, pero siguen siendo partes importantes de la identidad de algunas comunidades.
Por último, hay evidencia de que los algoritmos pueden reforzar los estereotipos negativos asociados con las personas transgénero cuando aparecen en las noticias o los videos ofrecidos, basados en la historia de visualización en lugar de la calidad o relevancia. Todos estos factores se combinan para crear un ambiente en el que las voces transgénero a menudo son silenciadas o excluidas de hablar de problemas LGBTQ +.
Formas de reformar los algoritmos y moderar el contenido
Aunque reformar los sistemas algorítmicos no es una tarea fácil, dada su complejidad e importancia para mantener a los usuarios comprometidos, hay varias estrategias que pueden ayudar a dar mayor visibilidad a los grupos marginales, como las personas de color extraño:
1. Priorizar las recomendaciones de lenguaje inclusivo. Las plataformas deben proporcionar recomendaciones claras sobre qué tipos de idiomas son aceptables cuando se discuten temas sensibles, como la identidad de género o la proximidad, para que los usuarios sepan exactamente hasta dónde pueden mover las fronteras sin correr el riesgo de ser censurados o castigados.
2. Promover una representación diversa. Las empresas pueden colaborar con entidades dedicadas a apoyar a personas subrepresentadas en la comunidad LGBTQ +, expresándolas en sus páginas web o destacando iniciativas destinadas a reducir las desigualdades.
3. Permitir matices de expresión: Las plataformas pueden permitir a los usuarios más libertad para expresarse libremente, al tiempo que garantizan el cumplimiento de las normas contra el acoso o la incitación al odio. Esto requerirá una reinterpretación de los métodos de moderación existentes, que tienden a una censura excesiva en lugar de una interpretación detallada de las intenciones detrás de los posts.
4. Explore los prejuicios algorítmicos: las empresas deben averiguar por qué ciertos contenidos no son considerados tan ampliamente como otros y trabajar para corregir cualquier sesgo sistémico subyacente que pueda ocurrir.
Por ejemplo, si un video de identidad trans recibe un bajo nivel de compromiso, pero contiene información valiosa sobre el acceso a la atención médica o las oportunidades de empleo, puede indicar problemas más serios con la forma en que historias extrañas se difunden en Internet en lugar de la falta de atractivo en un creador individual.
5. Fomentar diferentes puntos de vista:
Finalmente, las plataformas pueden animar a los usuarios de todos los sectores de la sociedad - incluidos aquellos que se identifican como aliados directos del cisgénero - a hablar sobre los problemas que afectan a las comunidades marginadas, proporcionando recursos sobre la mejor manera de hacerlo de manera efectiva (por ejemplo, a través de artículos). Al dar estos pasos juntos, podemos crear espacios donde todos se sientan escuchados independientemente de la identidad, y asegurar que nadie se quede al margen al discutir temas importantes como la sexualidad y la identidad de género.
¿Cómo los algoritmos y la moderación de contenido forman la visibilidad y la marginación de las voces queer en Internet?
A pesar de la creciente presencia de personas LGBTQ + en las plataformas de redes sociales y el creciente reconocimiento de su identidad en la sociedad, la visibilidad y representación de estas comunidades sigue siendo problemática debido a diversos factores, como los prejuicios algorítmicos y las políticas de censura. El sesgo algorítmico se refiere a cómo los algoritmos utilizados por las empresas de redes sociales pueden perpetuar estereotipos dañinos y marginar a ciertos grupos en función de su identidad, orientación sexual, expresión de género u otras características personales.