Algorithmen und Content-Moderation sind wichtige Werkzeuge, die die Art und Weise prägen, wie Menschen online miteinander sehen und interagieren. Wenn es um queere Communities und ihren Ausdruck geht, bestimmen sie immer einflussreicher, welche Stimmen gehört werden und welche schweigen. Auf Plattformen wie Facebook, Instagram und TikTok können Nutzer Inhalte über ihre Erfahrungen als Menschen mit LGBTQ + veröffentlichen, aber es gibt keine Garantie, dass jeder sie dank der algorithmischen Entscheidungen dieser Unternehmen auf der Grundlage von Engagement-Metriken und Community-Empfehlungen sehen kann. In diesem Artikel untersuchen wir, wie Algorithmen und die Moderation von Inhalten die Sichtbarkeit marginalisierter Gruppen in queeren Räumen beeinflussen, einschließlich farbiger Transgender, die sowohl innerhalb als auch außerhalb der queeren Community einem hohen Maß an Diskriminierung ausgesetzt sind. Wir werden auch diskutieren, wie diese Systeme reformiert werden können, um alle Stimmen besser zu unterstützen, damit sich niemand benachteiligt oder ignoriert fühlt, wenn er sich über soziale Medien ausdrückt.
Die Bedeutung von Algorithmen und Content-Moderation
Soziale Medien haben die Art und Weise verändert, wie Menschen miteinander kommunizieren, indem sie es ihnen ermöglichen, sich über physische Grenzen hinweg zu verbinden und Ideen, Meinungen und Erfahrungen leichter als je zuvor auszutauschen.
Es hat jedoch auch neue Herausforderungen in Bezug auf Sichtbarkeit, Zugänglichkeit und Repräsentation geschaffen, insbesondere für marginalisierte Gruppen wie diejenigen, die sich als LGBTQ + identifizieren. Plattformen wie Facebook, Instagram und TikTok verlassen sich stark auf die Engagement-Metriken der Nutzer wie Likes, Shares, Kommentare und Folls, um festzustellen, welche Beiträge in Feeds erscheinen. Das bedeutet, dass Inhalte, die viel Aufmerksamkeit erhalten, in Suchergebnissen oder Trendlisten höher angezeigt werden, während Beiträge, die nicht viel Engagement verursachen, überhaupt nicht angezeigt werden, es sei denn, jemand sucht aktiv nach ihnen. Wenn es darum geht, seltsame Perspektiven darzustellen, kann dieses System zu einer Unterrepräsentation oder sogar Löschung führen, wenn bestimmte Arten von Inhalten nicht weit genug verbreitet werden. Darüber hinaus verfolgen viele Plattformen eine strenge Politik in Bezug auf Nacktheit und Sexualität, die es den Nutzern erschwert, offen über Intimität zu sprechen, ohne Angst vor Zensur oder Aussetzung zu haben.
Marginalisierung von Transgender-Menschen mit Hautfarbe
Transgender-Menschen sind aufgrund sozialer Vorurteile gegenüber geschlechtsspezifischer Diskrepanz bereits mit einem unverhältnismäßigen Maß an Diskriminierung innerhalb und außerhalb ihrer Gemeinschaften konfrontiert. Wenn Sie der Gleichung Rasse hinzufügen, wird dieser Kampf noch schärfer. Laut einer Studie des Pew Research Center sind schwarze Transfrauen doppelt so häufig online belästigt worden wie weiße Transfrauen. Sie neigen auch dazu, weniger Geld online zu verdienen, indem sie soziale Medien aufgrund rassistischer Vorurteile unter potenziellen Sponsoren monetarisieren. Darüber hinaus haben Plattformen oft damit zu kämpfen, wie sie Inhalte im Zusammenhang mit Body Positivity oder Sexarbeit mit Transmenschen moderieren können, da diese Themen über die traditionellen Normen des sexuellen Ausdrucks hinausgehen, aber wichtige Teile der Identität einiger Gemeinschaften bleiben. Schließlich gibt es Hinweise darauf, dass Algorithmen negative Stereotypen im Zusammenhang mit Transgender-Personen verstärken können, wenn sie in Nachrichtensendungen oder vorgeschlagenen Videos erscheinen, die auf dem Browserverlauf und nicht auf Qualität oder Relevanz basieren. All diese Faktoren kommen zusammen, um ein Umfeld zu schaffen, in dem Transgender-Stimmen oft zum Schweigen gebracht oder von Gesprächen über LGBTQ + -Themen ausgeschlossen werden.
Wege zur Reform von Algorithmen und zur Moderation von Inhalten
Obwohl die Reform algorithmischer Systeme angesichts ihrer Komplexität und Bedeutung bei der Aufrechterhaltung des Nutzerengagements keine leichte Aufgabe ist, gibt es mehrere Strategien, die dazu beitragen können, marginalisierten Gruppen wie queeren People of Color mehr Sichtbarkeit zu verschaffen:
1. Priorisierung inklusiver Sprachempfehlungen. Plattformen sollten klare Empfehlungen geben, welche Arten von Sprachen akzeptabel sind, wenn sensible Themen wie Geschlechtsidentität oder Intimität diskutiert werden, damit die Nutzer genau wissen, wie weit sie Grenzen verschieben können, ohne Gefahr zu laufen, zensiert oder bestraft zu werden.
2. Förderung einer vielfältigen Vertretung. Unternehmen können mit Organisationen zusammenarbeiten, die unterrepräsentierte Personen in der LGBTQ + -Community unterstützen, indem sie sie auf ihren Websites zum Ausdruck bringen oder Initiativen zur Verringerung der Ungleichheit hervorheben.
3. Nuancen des Ausdrucks zulassen: Plattformen können Nutzern mehr Freiheit ermöglichen, sich frei zu äußern, und gleichzeitig Regeln gegen Belästigung oder Hassrede durchsetzen. Dies erfordert ein Umdenken der bestehenden Moderationsmethoden, die eher zu übermäßiger Zensur als zu einer detaillierten Interpretation der Absichten hinter den Beiträgen neigen.
4. Untersuchen Sie algorithmische Vorurteile: Unternehmen müssen herausfinden, warum bestimmte Inhalte nicht so umfassend behandelt werden wie andere, und daran arbeiten, die zugrunde liegenden systemischen Vorurteile, die auftreten können, zu korrigieren. Wenn zum Beispiel ein Transidentitätsvideo ein geringes Engagement erhält, aber wertvolle Informationen über den Zugang zur Gesundheitsversorgung oder Beschäftigungsmöglichkeiten enthält, kann dies ernstere Probleme mit der Art und Weise signalisieren, wie seltsame Geschichten online verbreitet werden, anstatt einen Mangel an Attraktivität für den einzelnen Ersteller.
5. Ermutigen Sie verschiedene Standpunkte:
Schließlich können Plattformen Benutzer aus allen Bereichen des Lebens - einschließlich derjenigen, die sich als direkte Verbündete des Cisgender identifizieren - ermutigen, sich zu Themen zu äußern, die marginalisierte Gemeinschaften betreffen, indem sie Ressourcen bereitstellen, wie dies am besten effektiv durchgeführt werden kann (z. B. durch Artikel). Indem wir diese Schritte gemeinsam unternehmen, können wir Räume schaffen, in denen sich jeder unabhängig von seiner Identität gehört fühlt und sicherstellen, dass niemand bei der Diskussion wichtiger Themen wie Sexualität und Geschlechtsidentität außen vor bleibt.
Wie gestalten Algorithmen und Content-Moderation die Sichtbarkeit und Marginalisierung queerer Stimmen im Internet?
Trotz der wachsenden Präsenz von LGBTQ + -Personen auf Social-Media-Plattformen und der wachsenden Akzeptanz ihrer Identität in der Gesellschaft bleibt die Sichtbarkeit und Repräsentation dieser Communities aufgrund verschiedener Faktoren wie algorithmischer Vorurteile und Zensurpolitik problematisch. Algorithmische Voreingenommenheit bezieht sich darauf, wie Algorithmen, die von Social-Media-Unternehmen verwendet werden, schädliche Stereotype verewigen und bestimmte Gruppen aufgrund ihrer Identität, sexuellen Orientierung, ihres Geschlechtsausdrucks oder anderer persönlicher Merkmale marginalisieren können.