Logo

ZeroOpposite

Contact Us
Search

UNTERSUCHUNG, WIE ALGORITHMEN REPRESSIVE NORMEN GEGEN QUEERE STIMMEN IN ONLINE-BEZIEHUNGSRÄTEN VEREWIGEN deEN IT FR PL TR PT RU AR JA CN ES

3 min read Queer

Das Internet wird für seine Fähigkeit gelobt, Menschen aus aller Welt zusammenzubringen und ein Umfeld zu schaffen, in dem jeder mitreden kann.

Dies ist jedoch nicht immer der Fall. Die Algorithmen, die das Internet steuern, neigen dazu, soziale Vorurteile gegen seltsame Stimmen zu reproduzieren, ihre Sichtbarkeit einzuschränken und es schwieriger zu machen, ihnen zuzuhören. In diesem Artikel werden wir untersuchen, wie Algorithmen diese Vorurteile aufrechterhalten und was dagegen getan werden kann.

Definieren wir zunächst den Begriff „queer". Queer bezieht sich auf jeden, der sich nicht als heterosexuell oder cisgender identifiziert. Dazu gehören unter anderem Lesben, Schwule, Bisexuelle, Transgender, nicht-binäre, intergeschlechtliche und asexuelle Menschen. Es umfasst auch Menschen, die sich als pansexuell identifizieren, Polyamore, Kinky und alles, was über traditionelle Normen hinausgeht. Diese Gruppen werden täglich diskriminiert und schikaniert, auch online.

Algorithmen arbeiten, indem sie Text scannen und Muster analysieren. Sie sollen den Benutzern relevante Ergebnisse basierend auf dem, was sie suchen, liefern. Wenn der Algorithmus jedoch auf Daten trainiert wird, die direkte, weiße, männliche Perspektiven priorisieren, erkennt er keine seltsamen Stimmen. Wenn ein Benutzer beispielsweise nach „Beziehungsberatung" sucht, kann der Algorithmus Artikel anzeigen, die von Männern über Datierung mit Frauen geschrieben wurden, da dies die am häufigsten verwendeten Artikel sind. Dies schließt seltsame Stimmen aus, die zu Fehlinformationen und weiterer Isolation führen können.

Eine weitere Möglichkeit, wie Algorithmen soziale Vorurteile verstärken, ist gezielte Werbung. Unternehmen verwenden Algorithmen, um den Browserverlauf und das Nutzerverhalten zu analysieren, um Anzeigen zu schalten, die auf ihre Interessen zugeschnitten sind. Wenn der Algorithmus jemanden als hetero identifiziert, kann er Anzeigen für Brautkleider oder Kinderartikel schalten. Umgekehrt, wenn der Algorithmus jemanden als queer identifiziert, kann er ihm Anzeigen für LGBTQ + -Ereignisse oder Dating-Sites zeigen. Dies schafft ein falsches Gefühl der Normalität um Heteronormativität, was es für fremde Menschen schwierig macht, sich miteinander zu verbinden.

Schließlich können Algorithmen schädliche Stereotypen über fremde Menschen fördern. Suchmaschinen können Artikel anbieten, die negative Stereotypen über Transgender-Personen verewigen, zum Beispiel werden Transgender-Kinder in ihrer Geschlechtsidentität verwirrt oder Transgender-Personen sind von Natur aus gefährlich. Dies bestätigt die Idee, dass queer zu sein nicht normal ist und vermieden werden sollte.

Wie können wir das beheben? Eine Lösung ist die Diversifizierung der Daten, mit denen die Algorithmen trainiert werden. Unternehmen wie Google haben Schritte in diese Richtung unternommen, darunter die Anzeige vielfältigerer Bilder in den Suchergebnissen und das Hinzufügen von Tags zur Identifizierung von LGBTQ + -Inhalten.

Dies allein löst das Problem jedoch nicht. Queere Stimmen müssen aktiv gesucht und in die Online-Räume aufgenommen werden. Das bedeutet, queere Plattformen zu schaffen, auf denen sie ihre Ansichten frei teilen können, ohne Angst vor Zensur oder Diskriminierung zu haben. Es bedeutet auch, Verbündete zu ermutigen, seltsame Stimmen in den sozialen Medien und anderswo zu verstärken.

Abschließend sind die Algorithmen nicht neutral; sie spiegeln die Vorurteile der Gesellschaft wider, sowohl bewusst als auch unbewusst. Indem wir dies anerkennen, können wir Maßnahmen ergreifen, um das Internet zu einem sichereren Ort für alle Menschen zu machen, unabhängig von ihrer Sexualität oder Geschlechtsidentität. Lassen Sie uns zusammenarbeiten, um eine Welt zu schaffen, in der jeder eine Stimme hat, die gehört und respektiert wird.

Wie reproduzieren Algorithmen soziale Vorurteile gegenüber queeren Stimmen im Internet?

Algorithmen können soziale Vorurteile gegenüber queeren Stimmen auf Online-Plattformen verstärken, weil sie oft mit Daten trainiert werden, die heteronormative Perspektiven und Normen widerspiegeln. Dies bedeutet, dass es für Algorithmen schwierig sein kann, Inhalte als queer zu erkennen und zu klassifizieren, was dazu führen kann, dass sie übersprungen oder unterrepräsentiert werden.