Bei der Betrachtung potenzieller Vorurteile in Systemen der künstlichen Intelligenz (KI) ist es wichtig, diejenigen zu berücksichtigen, die Menschen betreffen können, die sich als lesbisch, schwul, bisexuell, transgender und queer/queer (LGBTQ +) identifizieren. Diese Vorurteile können schwerwiegende Folgen für ihre Sicherheit, Privatsphäre, Zugang zur Gesundheitsversorgung, Beschäftigungsmöglichkeiten und vieles mehr haben. Es gibt jedoch mehrere Mechanismen, um diese Vorurteile in KI-Systemen zu erkennen, zu mildern und zu verhindern. In diesem Artikel untersuche ich, wie effektiv diese Mechanismen in der Praxis sind.
Ein Mechanismus zur Erkennung von KI-Vorurteilen gegenüber LGBT-Bevölkerungsgruppen ist das Audit. Dies beinhaltet die Überprüfung des Codes des Algorithmus und der Datenquellen, um zu sehen, ob sie die Vielfalt der Bevölkerung widerspiegeln, der sie dienen sollen. Ein Unternehmen, das eine Online-Dating-App entwickelt, kann beispielsweise einen unabhängigen Berater beauftragen, um zu beurteilen, ob seine Algorithmen Begriffe im Zusammenhang mit Geschlechtsidentität oder sexueller Orientierung enthalten, die bestimmte Benutzer ausschließen können. Wenn dies der Fall ist, würde der Berater empfehlen, Änderungen am Algorithmus vorzunehmen, um ihn integrativer zu machen. Eine weitere Nachweismethode ist das Testen mit verschiedenen Gruppen. Die Studie, die in Nature veröffentlicht wurde, zeigt, wie ein Forscherteam ein Modell zur Klassifizierung von Bildern anhand von Gesichtsmerkmalen getestet und festgestellt hat, dass es ungenaue Vorhersagen über die sexuelle Orientierung auf der Grundlage von Stereotypen wie Bärten oder Ohrringen getroffen hat. Die Ergebnisse veranlassten die Forscher, das Modell mit einem größeren und repräsentativeren Datensatz neu zu qualifizieren.
Ein weiterer Ansatz zur Lösung des Problems der KI-Voreingenommenheit ist die Analyse der Fairness. Dies beinhaltet die Messung der Auswirkungen eines bestimmten Entscheidungsprozesses auf verschiedene Bevölkerungsgruppen. Eine Studie von ProPublica ergab, dass das Rekrutierungssystem von Amazon seltener weibliche Kandidaten auswählt, weil es Lebensläufe, die das Wort „Executive" enthalten, denjenigen vorzieht, die es nicht haben. Durch die Analyse des Entscheidungsprozesses identifizierte die Studie eine potenzielle Voreingenommenheit gegenüber Frauen. Infolgedessen hat Amazon sein System aktualisiert und den Begriff „Exekutive" entfernt. Gerechtigkeitsanalysen können auch verwendet werden, um Vorurteile in anderen Bereichen wie Strafjustiz, Gesundheitswesen und Wohnungswesen zu identifizieren.
Um die Voreingenommenheit der KI zu mildern, besteht eine Strategie darin, kontrafaktische Erklärungen zu verwenden. Sie erklären, warum eine konkrete Entscheidung getroffen wurde und schlagen Alternativen vor, die zu einem anderen Ergebnis hätten führen können. Wenn ein Hypothekengeber beispielsweise KI verwendet, um die Kreditwürdigkeit zu bestimmen, muss er Erklärungen zu Entscheidungen geben, die für LGBT-Bewerber nicht günstig sind. Eine kontrafaktische Erklärung könnte beispielsweise lauten: „Wenn Ihr Einkommen 500 US-Dollar höher wäre, würden Sie sich für dieses Darlehen qualifizieren". Eine weitere Strategie besteht darin, Beschränkungen für Eingabedaten und algorithmische Parameter zu implementieren.
Beispielsweise kann eine Bank die Verwendung einer geschlechtsspezifischen Sprache bei der Bestimmung der Kreditwürdigkeit einschränken.
Darüber hinaus gibt es einige Schritte, die Unternehmen unternehmen können, um KI-Bias überhaupt zu verhindern. Ein Ansatz besteht darin, demografische Informationen über ihre Benutzer oder Kunden zu sammeln. Unternehmen wie Google und Facebook verlangen von ihren Entwicklern, dass sie bei der Produktentwicklung Vielfalt berücksichtigen, was dazu beiträgt, dass ihre Systeme bestimmte Gruppen nicht versehentlich ausschließen. Eine andere Strategie besteht darin, während des Modelltrainings eine Vielzahl von Datensätzen zu verwenden, um das Risiko von Stereotypen zu verringern. Schließlich können Unternehmen ethische Richtlinien in ihre KI-Entwicklungsprozesse integrieren, um Fairness und Transparenz während des gesamten Prozesses zu gewährleisten.Während diese Mechanismen existieren, um KI-Vorurteile gegen LGBT-Bevölkerungsgruppen zu erkennen, zu mildern und zu verhindern, hängt ihre Wirksamkeit von mehreren Faktoren ab. Einige Studien zeigen, dass eine Prüfung allein nicht alle Formen der Diskriminierung vollständig beseitigen kann, da Vorurteile subtil und schwer zu identifizieren sein können. Andere Studien zeigen, dass Auditing nützlich sein kann, aber Erfahrung in maschinellem Lernen und sozialer Gerechtigkeit erfordert, um effektiv zu sein. Kontrafaktische Erklärungen können nicht immer genau oder umfassend sein, und Einschränkungen können zu neuen Risiken führen, wenn sie zu restriktiv sind. Die Schaffung von Inklusivität im Designprozess kann auch Ressourcen und Mitarbeiter erfordern, die verstehen, wie sich verschiedene Identitäten mit Technologie überschneiden. Im Allgemeinen werden kontinuierliche Anstrengungen von Branchenführern, politischen Entscheidungsträgern und Interessengruppen erforderlich sein, um sicherzustellen, dass KI-Systeme allen gleichermaßen und fair dienen.
Welche Mechanismen gibt es, um Vorurteile der KI gegenüber LGBT-Bevölkerungsgruppen zu erkennen, zu mildern und zu verhindern und wie effektiv sind diese in der Praxis?
Trotz wachsender Akzeptanz von lesbischen, schwulen, bisexuellen, transgender (LGBT) Communities gibt es immer noch Vorurteile gegenüber künstlicher Intelligenz (KI). Diese Vorurteile manifestieren sich als Vorurteile basierend auf Geschlechtsidentität, sexueller Orientierung, Rasse, Alter, ethnischer Zugehörigkeit, Religion, Aussehen usw., die in Trainingsdaten eingebettet werden können, die zum Trainieren von Algorithmen verwendet werden. Verschiedene Forscher haben verschiedene Mechanismen vorgeschlagen, um das Problem der KI-Voreingenommenheit gegenüber LGBT-Bevölkerungsgruppen anzugehen.