Logo

ZeroOpposite

Contact Us
Search

SEXUALITÄT/SEXUALISIERUNG UND AI: WIE ALGORITHMEN ZU VORURTEILEN GEGENÜBER MINDERHEITEN FÜHREN KÖNNEN deEN IT FR PL TR PT RU AR JA CN ES

Algorithmen sind Computerprogramme, die ohne menschliches Zutun bestimmte Aufgaben ausführen können. Sie arbeiten, indem sie große Datenmengen analysieren und Muster für die Entscheidungsfindung finden. Diese Muster können auf historischen Trends oder statistischen Wahrscheinlichkeiten basieren. Algorithmen wurden verwendet, um Kreditrisiken zu erkennen, das Wetter vorherzusagen, Lieferketten zu optimieren, Musik zu empfehlen, Betrug zu erkennen und sogar Krankheiten zu diagnostizieren. Sie verewigen aber auch soziale Vorurteile und diskriminieren Minderheiten. In diesem Artikel wird untersucht, wie Algorithmen moralische Vorurteile gegen unangemessene Identitäten reproduzieren und wie diesen Vorurteilen entgegengewirkt werden kann.

Eine Möglichkeit, wie Algorithmen moralische Vorurteile reproduzieren, ist die Verwendung von binären Klassifikatoren. Binäre Klassifikatoren unterteilen Menschen in Kategorien wie Mann/Frau, Schwarz/Weiß, Hetero/Homosexuell, Abed/Behinderte usw. Sie weisen dann jeder Kategorie eine Reihe von Merkmalen zu, die der Realität entsprechen oder nicht. Zum Beispiel kann ein Algorithmus zur Erkennung von Tätern jede Person mit Tätowierungen als Täter einstufen, unabhängig von ihrem tatsächlichen Verhalten. Dies kann zu einer unverhältnismäßigen Ausrichtung auf bestimmte Gruppen führen, einschließlich derjenigen, die nicht den traditionellen Geschlechterrollen entsprechen.

Eine weitere Möglichkeit, wie Algorithmen moralische Vorurteile reproduzieren, ist der Einsatz von maschinellem Lernen. Maschinelles Lernen beinhaltet das Lernen von Modellen auf umfangreichen Datensätzen und ermöglicht es ihnen, aus Fehlern der Vergangenheit zu lernen.

Wenn der Datensatz jedoch unvollständig oder zu einer Gruppe hin verschoben ist, liefert das Modell ungenaue Ergebnisse für die anderen Gruppen. Zum Beispiel identifiziert Gesichtserkennungstechnologie oft fälschlicherweise schwarze Frauen, weil sie hauptsächlich auf weißen Männern trainiert wurde. Ebenso können Rekrutierungsalgorithmen Kandidaten mit gewöhnlichen Namen wie John Smith gegenüber Kandidaten mit ethnisch klingenden Namen bevorzugen.

Um diese Vorurteile zu bekämpfen, müssen wir die Vielfalt der von Algorithmen verwendeten Datensätze erhöhen. Wir müssen Daten von unterrepräsentierten Gruppen sammeln und analysieren, darunter People of Color, LGBTQ + -Personen, Einwanderer, Behinderte und religiöse Minderheiten. Wir müssen auch Modelle an verschiedenen Beispielen trainieren, damit sie alle Arten menschlicher Erfahrung erkennen. Darüber hinaus müssen wir bestehende Algorithmen auf Genauigkeit und Fairness überprüfen, um sicherzustellen, dass keine Gruppe diskriminiert wird.

Schließlich müssen wir Unternehmen zur Rechenschaft ziehen, wenn ihre Produkte schädliche Stereotypen aufrechterhalten. Indem wir diese Schritte unternehmen, können wir eine gerechtere Gesellschaft schaffen, in der jeder den gleichen Zugang zu Chancen und Ressourcen hat.

Wie reproduzieren Algorithmen moralische Vorurteile gegen unangemessene Identitäten?

Es hat sich gezeigt, dass Algorithmen aufgrund ihrer Abhängigkeit von Datensätzen, die häufig Vorurteile menschlicher Programmierer und soziale Normen widerspiegeln, moralische Vorurteile gegenüber unangemessenen Identitäten wiederholen. Wenn sie beispielsweise einen Algorithmus für Gesichtserkennungssoftware programmieren, trainieren Entwickler das System normalerweise mit Bildern aus westlichen Kulturen, in denen weiße Gesichter häufiger vertreten sind als andere Rassen.