KI wird zunehmend in vielen verschiedenen Bereichen eingesetzt, darunter Gesundheitswesen, Finanzen, Bildung und sogar Unterhaltung. Obwohl KI diese Branchen revolutioniert hat, gibt es Bedenken hinsichtlich ihres Potenzials, Vorurteile gegenüber bestimmten Personengruppen aufrechtzuerhalten. Insbesondere äußerten die Forscher Bedenken, dass KI-Systeme Mitglieder der lesbischen, schwulen, bisexuellen und transgender (LGBT) Gemeinschaft diskriminieren könnten. Um dieses Risiko zu reduzieren, wurden verschiedene Mechanismen entwickelt, um Verzerrungen in KI-Systemen zu erkennen und zu beseitigen. Es bleibt jedoch unklar, wie effektiv diese Mechanismen in der Praxis sind.
Ein Mechanismus, der vorgeschlagen wurde, um die Voreingenommenheit der KI gegenüber LGBT-Bevölkerungsgruppen zu erkennen, ist die Datenaudits. Dazu gehört, die Daten zu untersuchen, mit denen das KI-System trainiert wird, und sicherzustellen, dass es für alle Gruppen, auch in der LGBT-Community, repräsentativ ist. Durch die Identifizierung von Lücken im Datensatz können Ingenieure Schritte unternehmen, um sicherzustellen, dass ihre Modelle bestimmte Untergruppen nicht diskriminieren. Wenn zum Beispiel ein KI-Modell mit medizinischen Bildern von heterosexuellen Paaren, aber nicht von gleichgeschlechtlichen Paaren trainiert wird, kann es bei der Diagnose von Krankheiten bei LGBT-Personen weniger genau sein. Ebenso kann das Finanzmodell, wenn es Daten über heterosexuelle Ehen verwendet, aber gleichgeschlechtliche Ehen ignoriert, die Bedürfnisse von LGBT-Familien unterschätzen. Ein weiterer Ansatz zur Verringerung der Voreingenommenheit der KI gegenüber LGBT-Bevölkerungsgruppen ist die Ausbildung in algorithmischer Fairness. Dazu gehört das Training maschineller Lernalgorithmen, um Ungleichheitsmuster in Daten zu erkennen und deren Entscheidungsfindung entsprechend anzupassen. Zum Beispiel könnte ein Algorithmus zur Vorhersage der Kreditgenehmigungsrate auf historischen Daten trainiert werden, die zeigen, dass Kreditgeber schwarzen und lateinamerikanischen Antragstellern eher Kredite verweigern als Weißen. Durch die Anerkennung dieser Muster kann der Algorithmus lernen, alle Bewerber unabhängig von Rasse oder ethnischer Zugehörigkeit fair zu behandeln.
Der dritte Mechanismus zur Verringerung der KI-Voreingenommenheit gegenüber LGBT-Gruppen ist die menschliche Überprüfung. Bei diesem Ansatz sind die Menschen an dem Prozess beteiligt, die Leistung von KI-Systemen zu bewerten und Fälle zu markieren, in denen sie voreingenommen erscheinen. Wenn beispielsweise ein KI-System konsequent verschiedene Behandlungsmöglichkeiten für Männer und Frauen mit denselben Erkrankungen empfiehlt, können Gutachter eingreifen und das Problem beheben. Eine menschliche Überprüfung kann auch dazu beitragen, andere Arten von Vorurteilen wie Ageismus oder Ableismus zu identifizieren und zu beseitigen. Trotz dieser Mechanismen gibt es Hinweise darauf, dass KI-Systeme weiterhin Mitglieder der LGBT-Community diskriminieren. Eine kürzlich durchgeführte Studie ergab, dass Gesichtserkennungssoftware Transgender-Personen eher fälschlicherweise als ein anderes Geschlecht identifiziert als Cisgender-Personen. In ähnlicher Weise ergab ein Bericht des National Institute of Standards and Technology (NIST), dass die Spracherkennungstechnologie bei der Identifizierung weiblicher Stimmen im Vergleich zu männlichen Stimmen weniger genau war. Diese Ergebnisse zeigen, dass selbst modernste KI-Systeme möglicherweise nicht immun gegen Vorurteile gegenüber bestimmten Gruppen sind. Insgesamt gibt es zwar Fortschritte bei der Identifizierung und Abschwächung von KI-Vorurteilen gegenüber LGBT-Gruppen, aber es gibt noch viel zu tun. Forscher, Ingenieure und Politiker müssen weiterhin neue Methoden entwickeln und sicherstellen, dass bestehende effektiv umgesetzt werden. Nur dann können wir wirklich integrative und faire KI-Systeme schaffen, die allen Mitgliedern der Gesellschaft gleichermaßen dienen.
Welche Mechanismen gibt es, um KI-Vorurteile gegenüber LGBT-Bevölkerungsgruppen zu erkennen und abzumildern, und wie effektiv sind diese in der Praxis?
Derzeit gibt es verschiedene Instrumente, um die Voreingenommenheit der KI gegenüber LGBT-Bevölkerungsgruppen zu erkennen und zu mildern. Einer der beliebtesten Ansätze ist die Datenvorverarbeitung, bei der Datensätze bereinigt und gefiltert werden, um mögliche Abweichungen zu beseitigen. Ein anderer Ansatz ist die Verwendung von Algorithmen für maschinelles Lernen, die aus Beispielen unvoreingenommener Datensätze lernen können. Darüber hinaus können aktive Trainingsmethoden verwendet werden, um Ausreißer in einem Trainingsdatensatz zu identifizieren, die eine Verschiebung bewirken können.