Logo

ZeroOpposite

Contact Us
Search

WIE ALGORITHMISCHE VERZERRUNGEN DIE SICHTBARKEIT VON QUEER IM INTERNET BEEINFLUSSEN deEN IT FR PL TR PT RU AR JA CN ES

3 min read Queer

Algorithmische Verzerrung ist eine unbeabsichtigte oder vorsätzliche Voreingenommenheit, die in Algorithmen existiert, die verwendet werden, um Entscheidungen oder Vorhersagen auf der Grundlage von Datensätzen zu treffen. Dies kann passieren, wenn bestimmte Gruppen in diesen Datensätzen unterrepräsentiert sind, was zu voreingenommenen Ergebnissen führt.

Wenn der Algorithmus auf Daten über Personen trainiert wird, die in der Regel weiß und männlich sind, kann dies zu voreingenommenen Ergebnissen für Frauen und People of Color führen.

In Bezug auf seltsame Sichtbarkeit und Stereotypen im Internet spielt algorithmische Voreingenommenheit eine wichtige Rolle bei der Gestaltung der Darstellung und Wahrnehmung seltsamer Identitäten. Seltsame Menschen werden aufgrund ihrer Identität oft mit Stereotypen und Wahnvorstellungen konfrontiert, was dazu führen kann, dass sie aus dem Mainstream-Diskurs ausgeschlossen werden.

Diese Stereotypen können sich auch durch Suchmaschinenergebnisse, Social-Media-Feeds und andere Online-Plattformen, die auf algorithmische Empfehlungen angewiesen sind, verewigen. Dieser Artikel wird einige der Möglichkeiten untersuchen, wie algorithmische Voreingenommenheit zu diesem Problem beiträgt.

Eine der Möglichkeiten, wie algorithmische Voreingenommenheit die Unsichtbarkeit von Queer verstärkt, ist ihr Einfluss auf die Suchmaschinenergebnisse. Wenn jemand nach Informationen zu LGBTQ + -Themen sucht, kann er Websites mit veralteten oder ungenauen Informationen oder sogar Artikeln finden, die Hassreden oder schädliche Stereotype enthalten. Dies kann zu einem Teufelskreis führen, in dem die Menschen nur negative Wahrnehmungen seltsamer Persönlichkeiten online sehen und davon ausgehen, dass sie keinen Platz in der Gesellschaft haben. Da viele queere Communities historisch marginalisiert wurden, fehlen ihnen die Ressourcen, um sicherzustellen, dass sie in den wichtigsten Suchmaschinen wie Google oder Bing vertreten sind. Ohne angemessene Repräsentation bleiben diese Communities für viele Menschen, die online nach Informationen über sie suchen, unsichtbar. Algorithmische Voreingenommenheit kann auch dazu beitragen, schädliche Stereotypen über fremde Menschen zu verbreiten.

Wenn Algorithmen bestimmten Arten von Inhalten Vorrang vor anderen geben, z. B. Videos von cisgender weißen Männern, die sich mit Homophobie befassen, kann dies dieses Verhalten normalisieren und akzeptabler machen, als es tatsächlich ist. Diese Art von Voreingenommenheit kann besonders problematisch für junge queere Menschen sein, die anderswo möglicherweise keinen Zugang zu genauen Informationen über ihre Persönlichkeiten haben. Es schafft auch ein Umfeld, in dem sich fremde Menschen unsicher fühlen, sich online frei auszudrücken, aus Angst, von Hassgruppen oder Trollen angegriffen zu werden.

Algorithmische Voreingenommenheit kann die Vorstellung aufrechterhalten, dass seltsame Persönlichkeiten weniger repräsentativ sind als heteronormative. Dies geschieht, wenn Plattformen wie YouTube ähnliche Inhalte empfehlen, die ausschließlich auf dem Browserverlauf und nicht auf der tatsächlichen Relevanz oder dem Grad des Interesses basieren. Durch die Empfehlung von Inhalten, die auf dem basieren, was bereits angesehen wurde, und nicht auf dem, was jemand wirklich sehen möchte, stärkt dies die Idee, dass queere Inhalte für die aktive Suche nicht wichtig genug sind. Es fördert einen Kreislauf, in dem Nutzer weiterhin Mainstream-Medien konsumieren, ohne jemals mit unterschiedlichen Perspektiven oder Erzählungen außerhalb ihrer Komfortzone konfrontiert zu werden.

Algorithmische Voreingenommenheit kann dazu führen, dass queere Personen in Dating-Apps oder anderen sozialen Medien diskriminiert werden. Viele beliebte Apps verwenden Algorithmen, um Personen basierend auf gemeinsamen Interessen oder Aussehen auszuwählen, die seltsame Personen ausschließen können, die nicht in diese Kategorien fallen.

Einige Apps verwenden Daten aus Benutzerprofilen und Aktivitätshistorien, um Übereinstimmungen basierend auf stereotypen Merkmalen vorzuschlagen und Menschen, die diese Erwartungen nicht erfüllen, weiter zu marginalisieren.

Algorithmische Voreingenommenheit ist nur einer der Faktoren, die zur Unsichtbarkeit von Queer und zur Stereotypisierung im Internet beitragen. Es spielt jedoch eine wichtige Rolle bei der Gestaltung, wie sich diese Probleme manifestieren. Indem wir dieses Problem erkennen, können wir anfangen, an der Schaffung inklusiverer und fairer Online-Räume für alle Identitäten zu arbeiten, einschließlich der seltsamen.

Wie verewigt algorithmische Voreingenommenheit queere Unsichtbarkeit oder Stereotype im Internet?

Anhand von Studien und Umfragen lässt sich erkennen, dass queere Menschen bei der Nutzung von Social-Media-Plattformen aufgrund verschiedener Ursachen wie Homophobie, Transphobie und Cissexismus häufig auf Probleme stoßen. Eines dieser Probleme ist das Vorhandensein einer algorithmischen Verzerrung, die als Tendenz von Algorithmen definiert ist, Stereotypen zu verewigen und bestehende Vorurteile gegen fremde Individuen zu verstärken.