Logo

ZeroOpposite

Contact Us
Search

UNTERSUCHUNG VON GENDER BIAS UND LGBT + MARGINALISIERUNG IN SOCIAL MEDIA ALGORITHMEN deEN IT FR PL TR PT RU AR JA CN ES

3 min read Queer

Algorithmen spielen eine immer wichtigere Rolle bei der Gestaltung unserer Orientierung und Interaktion mit der digitalen Welt, einschließlich Social-Media-Plattformen wie Facebook, Twitter, TikTok, Instagram und YouTube. Diese Algorithmen sollen Beiträge auf der Grundlage ihrer Relevanz und Popularität fördern, was oft zu einer Stärkung bestimmter Standpunkte führt und andere zum Schweigen bringt. Dieser Trend könnte schwerwiegende Folgen für marginalisierte Gruppen haben, einschließlich Menschen aus Minderheitengemeinschaften, die online Diskriminierung, Belästigung und Zensur ausgesetzt sein könnten. Eine dieser Gruppen ist die LGBTQ + -Community, deren Stimmen zu oft zugunsten Mainstream-Perspektiven gedämpft oder ignoriert werden. In diesem Artikel untersuchen wir, wie Algorithmen soziale Vorurteile reproduzieren, die queere Stimmen im Netz marginalisieren, wobei der Fall von Geschlechtsidentität und sexueller Orientierung im Mittelpunkt steht.

Das Problem beginnt mit der Tatsache, dass die meisten Social-Media-Plattformen verlangen, dass Benutzer beim Erstellen eines Kontos das Geschlecht auswählen. Obwohl es harmlos genug erscheint, stärkt es tatsächlich die Idee, dass es nur zwei Geschlechter gibt - männlich und weiblich -, die nicht-binäre Menschen und diejenigen, die sich als weder das eine noch das andere identifizieren, ausschließen. Diese Voreingenommenheit wird dann durch die Präferenz des Algorithmus für Beiträge aufrechterhalten, die der Mehrheitsmeinung entsprechen, was bedeutet, dass nicht-binäre Inhalte wahrscheinlich unterdrückt werden.

Zum Beispiel, wenn jemand nach „Geschlecht" sucht, kann er Artikel über Transgender-Probleme oder Pronomen-Diskussionen sehen, aber nicht viel mehr. In ähnlicher Weise würde die Suche nach „sexueller Orientierung" Ergebnisse liefern, die mit Heterosexualität, Monogamie und Ehe zusammenhängen, aber wenig mit etwas anderem.

Eine andere Art, wie Algorithmen soziale Vorurteile reproduzieren, sind Inhaltsempfehlungen. Wenn sich Nutzer mit Inhalten befassen, die sich auf Sexualität oder Intimität beziehen, neigen Algorithmen dazu, Beiträge zu priorisieren, die traditionelle Normen wie direkte Beziehungen, monogame Paare oder sogar Pornografie mit Cisgender-Persönlichkeiten widerspiegeln. Infolgedessen können seltsame Stimmen Schwierigkeiten haben, an Dynamik zu gewinnen, während alternative Perspektiven zum Schweigen gebracht werden. Dies kann schwerwiegende Folgen für Menschen haben, die Unterstützung, Beratung oder Kommunikation suchen, sowie für LGBTQ + -Gemeinschaften, die versuchen, Bewusstsein und Sichtbarkeit zu erhöhen. Schließlich neigen Algorithmen auch dazu, Inhalte zu bevorzugen, die sensationell oder polarisierend sind, was bedeutet, dass Beiträge, die konventionelle Ansichten über Sex, Sexualität und Beziehungen in Frage stellen, möglicherweise nicht so viel Aufmerksamkeit erhalten wie Mainstream-Meinungen. Diese Voreingenommenheit könnte queere Stimmen weiter marginalisieren, da es für sie schwieriger sein könnte, ein Publikum außerhalb ihrer engsten Kreise zu erreichen. Abschließend spielen Algorithmen eine wichtige Rolle bei der Gestaltung des Online-Diskurses, einschließlich der Art und Weise, wie wir über Geschlechtsidentität und sexuelle Orientierung sprechen. Indem sie soziale Vorurteile reproduzieren, die einen Vorteil gegenüber der Mehrheitsmeinung haben, können diese Algorithmen Minderheitenstimmen zum Schweigen bringen und den Zugang zu Informationen einschränken. Daher ist es von entscheidender Bedeutung, dass wir daran arbeiten, inklusivere Plattformen zu schaffen, die alle Identitäten und Perspektiven unterstützen.

Wie reproduzieren Algorithmen gesellschaftliche Vorurteile, die queere Stimmen im Internet marginalisieren?

Algorithmen sind Computerprogramme, die auf der Grundlage eines Satzes von Regeln und Daten bestimmte Probleme lösen sollen. Sie können aus vergangenen Erfahrungen lernen und im Laufe der Zeit den Entscheidungsprozess verbessern. Social-Media-Plattformen wie Facebook und Twitter verwenden Algorithmen, um den Nutzern Inhalte basierend auf ihren Interessen, ihrer Geschichte und ihrer Interaktion zu empfehlen. Wenn diese Algorithmen mit voreingenommenen Daten trainiert werden, können sie soziale Vorurteile reproduzieren, die queere Stimmen im Internet marginalisieren, indem sie heteronormative Inhalte über queere Stimmen hinaus fördern.