Logo

ZeroOpposite

Contact Us
Search

DIE UNSICHTBARE VOREINGENOMMENHEIT VON ALGORITHMEN: WIE SIE DIE HETERONORMATIVITÄT IM ONLINE-RAUM STÄRKEN deEN IT FR PL PT RU AR JA CN ES

3 min read Queer

In den letzten Jahren hat die Aufmerksamkeit auf die möglichen negativen Auswirkungen algorithmischer Verzerrungen auf Social-Media-Plattformen zugenommen, insbesondere wenn es um Fragen zu Rasse und Geschlecht geht.

Was ist jedoch mit algorithmischen Verschiebungen, die heteronormative Annahmen in Räumen, die inklusiv sein sollen, subtil verstärken? Dieser Aufsatz wird sich mit dieser Frage befassen, untersuchen, wie sich diese Vorurteile in verschiedenen Kontexten manifestieren können, und Strategien zur Minderung ihrer Auswirkungen diskutieren.

Zunächst ist es wichtig zu verstehen, was „Heteronormativität" bedeutet. Heteronormativität bezieht sich auf die Annahme, dass alle direkt, cisgender und monogam sind. Sie geht davon aus, dass Heterosexualität die Norm ist und dass jede Abweichung davon nicht normal ist. Algorithmische Verzerrungen können diesen Glauben sogar in Räumen verewigen, die inklusiv sein sollten. Betrachten Sie zum Beispiel eine Dating-App, die Algorithmen verwendet, um Benutzer basierend auf ihren Vorlieben und Interessen abzugleichen. Wenn beide Partner standardmäßig cisgender Männer oder Frauen sind, kann dies zum Ausschluss nicht-binärer Menschen führen, die sich weder als Männer noch als Frauen identifizieren. Wenn eine App Paaren Priorität einräumt, die ähnliche religiöse oder politische Ansichten teilen, kann sie Personen mit unterschiedlichen Überzeugungen ausschließen.

Eine weitere Möglichkeit, wie algorithmische Verzerrungen die Heteronormativität verstärken können, besteht darin, bestimmte Arten von Beziehungen gegenüber anderen zu fördern.

Zum Beispiel bieten viele Online-Dating-Apps Funktionen wie Wischen nach rechts oder links für potenzielle Übereinstimmungen. Während dies harmlos erscheinen mag, kann es tatsächlich oberflächliche Urteile anregen, die auf dem Aussehen und nicht auf tieferen Kompatibilitätsfaktoren basieren. Infolgedessen können Menschen, die nicht in traditionelle Schönheitsstandards passen oder außerhalb der typischen Altersklassen liegen, Schwierigkeiten haben, geeignete Partner zu finden. Einige Apps ermöglichen es Benutzern außerdem, nur ein Geschlecht auszuwählen, wenn sie nach potenziellen Übereinstimmungen suchen, was die verfügbaren Optionen einschränkt und die Idee bestätigt, nur zwei Geschlechter zu haben.

Schließlich können algorithmische Offsets auch heteronormative Annahmen mit Hilfe von Sprache subtil verstärken.

Beispielsweise können Begriffe wie „Ehemann" oder „Ehefrau" automatisch in Chatnachrichten zwischen zwei zugeordneten Benutzern vorkommen. Dies verstärkt die Vorstellung, dass alle Beziehungen heterosexuell und monogam sind, obwohl viele Menschen unterschiedliche Vorlieben oder Identitäten haben. Ebenso können algorithmische Empfehlungen Aktionen oder Ereignisse vorschlagen, die eine bestimmte sexuelle Orientierung oder einen Familienstand nahelegen. Diese Annahmen können denjenigen schaden, die nicht in diese Kategorien passen, und sie fühlen sich von der Gemeinschaft ausgeschlossen.

Wie können wir diese Probleme lösen? Eine Strategie besteht darin, inklusivere Optionen in Algorithmen und Funktionen bereitzustellen.

Dating-Apps können beispielsweise mehrere geschlechtsspezifische Optionen anbieten und es Benutzern ermöglichen, Suchkriterien so anzupassen, dass sie bestimmte Attribute enthalten, die über die Geschlechtsidentität hinausgehen. Sie könnten auch vermeiden, eine Sprache zu verwenden, die darauf hindeutet, dass alle hetero oder verheiratet sind. Ein weiterer Ansatz besteht darin, die Benutzer über das Vorhandensein von Verzerrungen und deren Auswirkungen auf ihre Erfahrungen zu informieren. Durch die Sensibilisierung können sich die Benutzer der Entscheidungen, die sie treffen, besser bewusst sein und erkennen, wenn sie Normen stärken, die bestimmte Gruppen ausschließen.

Schließlich sollten Plattformen der Forschung und Entwicklung Priorität einräumen, um eine vielfältigere und gerechtere Erfahrung für alle Nutzer zu schaffen.Zusammenfassend lässt sich sagen, dass algorithmische Vorurteile zwar auf den ersten Blick harmlos erscheinen mögen, aber tatsächlich schädliche Stereotypen und Ausnahmen aufrechterhalten können. Indem wir verstehen, wie diese Vorurteile funktionieren, und indem wir Schritte unternehmen, um sie zu mildern, können wir Räume schaffen, die wirklich Inklusion und Vielfalt fördern.

Können algorithmische Verschiebungen heteronormative Annahmen auch in Räumen, die auf Inklusivität ausgerichtet sind, subtil verstärken?

Nach Ansicht von Informatikern können algorithmische Verschiebungen heteronormative Annahmen tatsächlich verstärken, unabhängig von der Absicht des Raums, inklusiv zu sein. Algorithmen werden von Menschen erstellt, die unbewusste Vorurteile haben, die den Entscheidungsprozess beeinflussen, was zur Diskriminierung bestimmter Gruppen führen kann, einschließlich derer, die sich als LGBTQ + identifizieren.