Logo

ZeroOpposite

Contact Us
Search

WIE VERSTÄRKEN ALGORITHMEN GESELLSCHAFTLICHE VORURTEILE, DIE QUEERE STIMMEN IM INTERNET MARGINALISIEREN? deEN IT FR PL TR PT RU AR JA CN ES

3 min read Queer

Wie verstärken Algorithmen gesellschaftliche Vorurteile, die queere Stimmen im Internet marginalisieren?

Das Internet wird für Menschen auf der ganzen Welt immer zugänglicher und ermöglicht es ihnen, mit anderen Menschen zu kommunizieren, die ähnliche Interessen und Erfahrungen teilen. Trotz dieser Fortschritte sind einige Gruppen aufgrund ihrer Identität jedoch immer noch mit Diskriminierung und Vorurteilen konfrontiert. Queere Personen gehören zu den am stärksten von diesen Vorurteilen Betroffenen, weil die Gesellschaft sie oft als Abweichung von der Norm ansieht. Auf diese Weise kämpfen sie darum, Orte zu finden, an denen sie sich offen äußern können, ohne verurteilt oder verspottet zu werden. Hier kommen Algorithmen ins Spiel; Sie schaffen Möglichkeiten für Verbindungen, aber sie verewigen auch schädliche Stereotypen und Isolation. Algorithmen verstärken soziale Vorurteile, die queere Stimmen im Internet durch gezielte Werbung, algorithmische Filterung und personalisierte Suchergebnisse marginalisieren.

Gezielte Werbung beinhaltet die Verwendung von Benutzerdaten, um Werbung anzuzeigen, die auf eine bestimmte Demografie zugeschnitten ist. Wenn ein Unternehmen beispielsweise Produkte verkaufen möchte, die sich auf die Geschlechtsidentität beziehen, kann es auf Transgender-Nutzer abzielen, basierend auf ihrem Browserverlauf und ihren Social-Media-Aktivitäten. Während dieser Ansatz die Häufigkeit von Übergängen erhöht, verstärkt er auch die Vorstellung, dass bestimmte Personengruppen weniger wünschenswert sind als andere. Es sendet die Botschaft, dass Transgender etwas Besonderes oder Nischenhaftes ist und nicht Teil des täglichen Lebens, was zu Stigmatisierung und Marginalisierung beiträgt. Gleiches gilt für Dating-Apps, die Nutzer basierend auf ihrer sexuellen Orientierung auswählen; Während diese Plattformen sichere Räume für LGBTQ + -Menschen bieten, um gleichgesinnte Partner zu treffen, isolieren sie zusätzlich heterosexuelle Menschen, die eine nicht heteronormative Beziehung möglicherweise nicht kennen oder sich nicht sicher sind.

Die algorithmische Filterung basiert auf Methoden des maschinellen Lernens, um Inhalte für die Präferenzen jedes Benutzers zu kuratieren. Leider kann dieser Prozess verschiedene Perspektiven ausschließen, da Algorithmen davon ausgehen, dass die Zuschauer auf der Grundlage früherer Interaktionen mit ähnlichen Materialien sehen möchten.

Zum Beispiel kann ein Algorithmus nur einfachen Zuschauern ein Video über die Veröffentlichung von Geschichten empfehlen, da dies alles ist, was sie in der Vergangenheit gesehen haben. Queere Personen werden dann bei der Suche nach solchen Themen unsichtbar, da der Algorithmus davon ausgeht, dass sie bereits alles wissen, was man über sie wissen muss. Dies schafft einen Zyklus, in dem nur cisgender, heterosexuelle Erzählungen online sichtbar bleiben und alternative Stimmen zum Schweigen bringen.

Personalisierte Suchergebnisse funktionieren ähnlich und zeigen die Ergebnisse, die den individuellen Interessen am besten entsprechen, anstatt den verschiedenen Perspektiven gleiche Chancen zu geben. Wenn jemand nach einer „lesbischen Liebesgeschichte" sucht, wird er eher Artikel mit weißen Lesben und Cisgender-Frauen sehen als eine Vielzahl von Darstellungen. Diese Ausnahme verstärkt die Vorstellung, dass Fremdheit nur akzeptabel ist, wenn sie den Erwartungen der Gesellschaft entspricht, und schränkt die Sichtbarkeit über die grundlegenden Ideale hinaus ein. Abschließend verstärken Algorithmen soziale Vorurteile, die queere Stimmen im Internet durch gezielte Werbung, algorithmische Filterung und personalisierte Suchergebnisse marginalisieren. Diese Prozesse schaffen einen Zyklus, in dem nur bestimmte Identitäten sichtbar sind, was die Stigmatisierung und Diskriminierung derjenigen verstärkt, die nicht in traditionelle Normen passen. Um dieses Problem zu bekämpfen, müssen Unternehmen plattformübergreifend Inklusivität bieten, indem sie Ressourcen anbieten, die auf alle demografischen Merkmale zugeschnitten sind, und Annahmen darüber vermeiden, was die Nutzer sehen wollen.

Wie verstärken Algorithmen gesellschaftliche Vorurteile, die queere Stimmen im Internet marginalisieren?

Menschen gehen oft davon aus, dass Technologie unparteiisch ist, aber sie spiegelt menschliche Werte und Überzeugungen wider. Der Algorithmus hinter den Internetplattformen, mit denen wir interagieren, lernt regelmäßig aus den Verhaltensmustern und Präferenzen der Nutzer im Laufe der Zeit. Wenn zum Beispiel bestimmte Arten von Inhalten und Kommunikationsstile bei heterosexuellen Menschen beliebter sind als andere, werden sich diese Muster in den Empfehlungssystemen widerspiegeln, die von diesen Plattformen verwendet werden.