Logo

ZeroOpposite

Contact Us
Search

DISKRIMINIERUNG AUFGRUND DER SEXUELLEN ORIENTIERUNG IN ONLINE-DATING-APPS, DIE LGBT-NUTZER BETREFFEN deEN IT FR PL TR PT RU CN ES

2 min read Lesbian

Algorithmische Verschiebung ist ein Begriff, der verwendet wird, um die Tendenz von Algorithmen oder Befehlssätzen zu beschreiben, die verwendet werden, um Entscheidungen auf der Grundlage von Eingaben zu treffen, um Ergebnisse zu erzielen, die bestimmte Personengruppen im Vergleich zu anderen zu Unrecht begünstigen. Dies kann in vielen Kontexten passieren, auch wenn es um soziale Medien wie Facebook und Twitter geht. Wenn der Algorithmus beispielsweise so konzipiert ist, dass er Beiträge basierend auf Benutzeraktivitäten empfiehlt, kann er am Ende häufiger Beiträge von direkten, cisgenderen Männern empfehlen als von Frauen oder LGBT-Personen. Dies kann eine Feedback-Schleife schaffen, wenn Benutzer weniger Beiträge von diesen marginalen Gruppen sehen, was zu noch weniger Interaktion mit ihnen führt, was die Voreingenommenheit des Algorithmus verstärkt.

Wenn es jedoch um Dating-Apps geht, wird dieses Problem viel heimtückischer. Dating-Apps verlassen sich stark auf Algorithmen, um Benutzer basierend auf ihren Präferenzen auszuwählen, aber sie sammeln auch viele persönliche Daten über Benutzer. Diese Daten können Dinge wie Alter, Geschlecht, sexuelle Orientierung, Standort und sogar politische Zugehörigkeit umfassen. Anhand dieser Daten kann die App versuchen, genau vorherzusagen, welche Übereinstimmungen für die Nutzer von Interesse sein werden. Wenn die App jedoch gegenüber LGBT-Personen voreingenommen ist, kann sie ihnen weniger potenzielle Partner zeigen, die ihre Sexualität teilen, was ihre Möglichkeiten einschränken und zu Frustration führen kann.

Das Problem geht über das bloße Kennenlernen von Apps hinaus. Tatsächlich wurde festgestellt, dass algorithmische Voreingenommenheit viele Aspekte des täglichen Lebens durchdringt, von Jobsuchsystemen bis hin zu Kreditpunkten. Und während einige dieser Vorurteile gutartig erscheinen mögen, können sie schwerwiegende Folgen für LGBT-Nutzer haben. Zum Beispiel kann ein Algorithmus, der direkte Benutzer in einem Jobsuchsystem begünstigt, es LGBT-Personen erschweren, Beschäftigungsmöglichkeiten zu finden. Ebenso kann ein Algorithmus, der Transgender-Personen bei der Bestimmung der Kreditwürdigkeit diskriminiert, es ihnen erschweren, Kredite oder andere Formen der finanziellen Unterstützung zu erhalten.

Eine Möglichkeit, algorithmische Verzerrungen zu bekämpfen, besteht darin, die Algorithmen selbst zu trainieren. Maschinelle Lernsysteme können gelehrt werden, Muster zu erkennen und Entscheidungen auf der Grundlage dieser Muster zu treffen, so dass Entwickler Programme erstellen können, die darauf ausgelegt sind, Verzerrungen zu minimieren. Eine weitere Option besteht darin, sicherzustellen, dass die zur Verwaltung dieser Algorithmen verwendeten Daten vielfältig und für alle Personengruppen repräsentativ sind.

Schließlich können sich Benutzer äußern, wenn sie Fälle von algorithmischer Voreingenommenheit sehen, und diese an verantwortliche Unternehmen melden. Durch die Zusammenarbeit können wir eine fairere Online-Umgebung für alle schaffen.

Wie wiederholt algorithmische Voreingenommenheit die Diskriminierung von LGBT-Nutzern im Offline-Modus?

Algorithmische Voreingenommenheit bezieht sich auf den Prozess, durch den Computeralgorithmen programmiert werden, um Entscheidungen zu treffen, die aufgrund ihrer Rasse, ihres Geschlechts, ihrer sexuellen Orientierung, ihres Alters, ihrer Behinderung oder anderer Faktoren gegenüber bestimmten Personengruppen voreingenommen sein können. Im Zusammenhang mit Online-Dating-Apps bedeutet dies, dass der Algorithmus der App LGBT-Nutzern wahrscheinlich weniger potenzielle Übereinstimmungen anzeigt als Nicht-LGBT-Nutzern, selbst wenn sie ähnliche Vorlieben und Interessen haben.