Kann ein algorithmisches System queere Stimmen verstärken oder unterdrücken? Diese Frage wird seit Jahren in Informatikkreisen diskutiert, eine klare Antwort gibt es aber noch immer nicht. Einerseits scheint es, dass Algorithmen dazu beitragen können, marginalisierte Communities wie die LGBTQ + -Community zu identifizieren und zu fördern. Andererseits können sie auch bestehende Vorurteile verstärken und die Diskriminierung dieser Gruppen verschärfen.
Algorithmen sind mathematische Formeln zur Problemlösung. Sie empfangen Daten und liefern Ergebnisse, die auf diesen Eingaben basieren. In den letzten Jahren sind sie in Bereichen wie Finanzen, Gesundheit, Bildung und Politik immer wichtiger geworden. Aber wenn es darum geht, queere Stimmen zu stärken oder zu unterdrücken, wird ihre Rolle komplizierter.
Eine Möglichkeit, queere Stimmen zu stärken, ist der Einsatz von Empfehlungssystemen. Diese Systeme bieten Artikel, Videos oder andere Medien, die für die Nutzer interessant erscheinen könnten. Wenn sie Muster bemerken, die Menschen lesen oder beobachten, können sie die Empfehlungen anpassen, um diese Interessen widerzuspiegeln. Dies kann abfrageorientierte Inhalte umfassen, die ansonsten schwer zu finden sind.
Diese Algorithmen funktionieren jedoch nicht immer wie vorgesehen.
Zum Beispiel haben einige Studien gezeigt, dass Empfehler Inhalte von bestimmten Autoren ausschließen können, wenn sie eine bestimmte Sprache verwenden. Andere können Anzeigen schalten, die sich an Cisgender-Männer richten, was es Transgender-Personen erschwert, relevante Informationen zu finden. Außerdem können diese Systeme Stereotypen über Geschlecht und Sexualität aufrechterhalten. Sie können davon ausgehen, dass jeder traditionelle Vorstellungen von einer romantischen Beziehung zwischen einem Mann und einer Frau sehen möchte, was die Sichtbarkeit abnormaler Identitäten einschränkt. Ebenso können sie davon ausgehen, dass alle Frauen Make-up-Lektionen sehen wollen, während sie die verschiedenen Schönheitsstandards ignorieren.
Um dieses Problem zu lösen, haben Unternehmen begonnen, integrativere Algorithmen zu entwickeln. Einige Plattformen berücksichtigen nun Faktoren wie Rasse, ethnische Zugehörigkeit und Behinderung bei der Erstellung von Inhaltsangeboten. Andere ermöglichen es Benutzern, ihre Einstellungen anzupassen, indem sie ID-Kategorien angeben.
Es gibt jedoch noch viel Raum für Verbesserungen.
Algorithmen spielen auch eine wichtige Rolle bei der Verfolgung von Fremden im Internet. Hassrhetorik, Doxing (öffentliche Weitergabe persönlicher Informationen) und andere Formen des Missbrauchs sind in sozialen Medien alltäglich geworden. Diese Plattformen verlassen sich häufig auf Algorithmen für maschinelles Lernen, um potenziell anstößige Beiträge zu kennzeichnen. Aber manchmal erkennen sie keine schädlichen Worte und Handlungen. Außerdem können algorithmische Systeme indirekt zur Diskriminierung von LGBTQ + -Gemeinschaften beitragen.
Beispielsweise verwenden Recruiting-Sites häufig Keywords, um Kandidaten mit offenen Positionen abzugleichen. Wenn diese Schlüsselwörter Begriffe ausschließen, die mit nicht-binären oder polyamorischen Identitäten verbunden sind, kann dies zu einer Verschiebung führen. Im Allgemeinen können algorithmische Systeme nicht völlig neutral sein, wenn es darum geht, queere Stimmen zu verstärken oder zu unterdrücken. Obwohl sie das Potenzial haben, Vielfalt zu unterstützen, müssen sie sorgfältig entworfen und getestet werden, um unbeabsichtigte Konsequenzen zu vermeiden. Entwickler und politische Entscheidungsträger müssen sicherstellen, dass diese Instrumente verantwortungsvoll und fair eingesetzt werden.
Können algorithmische Systeme jemals neutral sein, wenn sie queere Stimmen verstärken oder unterdrücken?
Die Stärkung queerer Stimmen ist seit Jahren ein ständiges Thema, wenn Menschen oft mit Diskriminierung, Vorurteilen und Ausgrenzung aus der Mainstream-Gesellschaft konfrontiert sind. Obwohl die Technologie eine vielversprechende Lösung für dieses Problem zu sein scheint, gibt es Grund zu der Annahme, dass sie dies nicht völlig neutral tun kann. Algorithmische Systeme werden von Menschen entwickelt, die ihre eigenen Vorurteile und Überzeugungen haben, die die Art und Weise, wie sie Daten interpretieren und Entscheidungen treffen, prägen können.