Technologien der künstlichen Intelligenz werden zunehmend zur Interpretation und Klassifizierung von Geschlechtsidentitäten eingesetzt, können aber sozialen Vorurteilen unterliegen, die zu falschen oder schädlichen Ergebnissen führen können. So kommt es:
1) Datensätze, die zum Trainieren von Algorithmen der künstlichen Intelligenz verwendet werden, können aufgrund der historischen Einstellung zu bestimmten Geschlechtern oder der sexuellen Orientierung Verzerrungen enthalten. Wenn der Datensatz beispielsweise Bilder von Frauen enthält, die traditionelle weibliche Aktivitäten wie Kochen und Putzen ausführen, kann er einen KI-Algorithmus anführen, um diese Aufgaben mit der weiblichen Geschlechtsidentität zu verknüpfen. 2) Algorithmen, die Sprachmuster und vokale Merkmale analysieren, um die Geschlechtsidentität zu bestimmen, können auch von kulturellen Stereotypen darüber abhängen, wie Männer und Frauen klingen. Dies kann zu einer fehlerhaften Identifizierung oder Diskriminierung nichtbinärer Personen führen, die diesen Stereotypen nicht entsprechen.
3) Gesichtserkennungssoftware ist ein weiterer Bereich, in dem geschlechtsspezifische Vorurteile auftreten können, insbesondere wenn es darum geht, geschlechtsneutrale Gesichtsmerkmale oder Transgender-Personen zu erkennen, deren Aussehen nicht mit ihrem zugewiesenen Geburtsgeschlecht übereinstimmt. 4) Neben dem Geschlecht können KI-Algorithmen auch andere Formen der Ungleichheit aufgrund von Rasse, Alter, Behinderungsstatus und sozioökonomischem Hintergrund aufrechterhalten. Zum Beispiel kann ein Algorithmus, der entwickelt wurde, um Emotionen in Videoüberwachungsaufnahmen zu erkennen, Schwarze fälschlicherweise häufiger als aggressiv oder kriminell bezeichnen als Weiße.
5)
Schließlich werden KI-Systeme von Menschen entwickelt, die selbst voreingenommen sind, was sich in der Art und Weise widerspiegeln kann, wie sie ihre Technologien programmieren. Voreingenommenheit in der KI-Entwicklung wurde mit einer unzureichenden Repräsentation von Frauen und Minderheiten in der Technologiebranche in Verbindung gebracht. Um diese Probleme zu lösen, müssen Forscher daran arbeiten, vielfältigere Datensätze zu erstellen und KI-Algorithmen zu trainieren, um abnormale Geschlechtsausdrücke zu erkennen. Unternehmen sollten auch ihre KI-Systeme auf Voreingenommenheit prüfen und Schutzmaßnahmen implementieren, um Diskriminierung zu verhindern. Letztendlich muss die Gesellschaft eine veraltete Einstellung zu Geschlecht und Sexualität herausfordern, damit sich jeder in unserer zunehmend digitalen Welt gesehen und respektiert fühlt.
Wie können KI-Technologien gesellschaftliche Vorurteile bei der Interpretation oder Kategorisierung der Geschlechtsidentität reproduzieren?
Künstliche Intelligenz (KI) lernt aus großen Datenmengen, die menschliche Verhaltensmuster und Vorurteile widerspiegeln. KI-Systeme können daher Vorurteile kopieren, die in dem für ihr Lernen verwendeten Quellmaterial vorhanden sind, einschließlich solcher, die sich auf die Geschlechtsidentität beziehen.