Algorithmische Verzerrung bezieht sich auf ein Vorurteil, das entstehen kann, wenn Algorithmen, die zur Entscheidungsfindung in verschiedenen Bereichen wie Einstellung, Kreditvergabe und Gesundheitswesen verwendet werden, aufgrund von voreingenommenen Dateneingaben zu unfairen Ergebnissen führen können. Es gibt wachsende Besorgnis über die möglichen Auswirkungen algorithmischer Voreingenommenheit auf Menschen, die marginalisierten Gruppen angehören, wie Lesben, Schwule, Bisexuelle, Transgender (LGBT). Dieses Papier wird die bestehenden Strukturen diskutieren, um algorithmische Vorurteile gegen LGBT-Personen zu identifizieren und abzuschwächen und wie effektiv sie in der Praxis sind.
Die erste Struktur besteht darin, die Datenquellen zu untersuchen, die zum Trainieren des Algorithmus verwendet werden. Dies stellt sicher, dass die Trainingsdaten die bediente Bevölkerung genau widerspiegeln. Wenn beispielsweise der Beschäftigungsalgorithmus anhand von Lebensläufen heterosexueller Männer trainiert wird, kann dies zu voreingenommenen Ergebnissen für LGBT-Bewerber führen. Um dies zu vermeiden, können Organisationen verschiedene Datenquellen in ihre Trainingsdatensätze aufnehmen, die das gesamte Geschlecht, die sexuelle Orientierung und die Geschlechtsidentität repräsentieren.
Ein anderer Ansatz beinhaltet die Verwendung von Fairness-Maßnahmen bei der Entwicklung des Modells. Diese Metriken bewerten, ob ein Modell verschiedene Untergruppen gleich behandelt oder eine Gruppe gegenüber einer anderen bevorzugt. Ein Gleichheitsindikator vergleicht beispielsweise die Leistung eines Modells über verschiedene demografische Gruppen hinweg, während ein disparates Expositionsmaß Unterschiede zwischen den Ergebnissen der Gruppen aufdeckt.
Darüber hinaus können Post-Processing-Techniken wie Nachwägen oder Kalibrieren angewendet werden, um die Ausgabe basierend auf der Darstellung der Gruppe im Datensatz anzupassen.
Außerdem können Erklärungstools helfen, Black-Box-Modelle zu analysieren und Muster oder Korrelationen zu identifizieren, die Schaden anrichten können. Durch die Erklärung des Entscheidungsfindungsprozesses des Algorithmus können diese Methoden versteckte Verschiebungen erkennen, die sonst möglicherweise unbemerkt geblieben sind. Erklärbarkeit ermöglicht es auch Auditalgorithmen sicherzustellen, dass sie bestimmte Gruppen nicht diskriminieren.
Schließlich ist die regelmäßige Überwachung und Bewertung der Leistung eines Algorithmus entscheidend, um seine Wirksamkeit zu erhalten. Unternehmen müssen ihre Algorithmen kontinuierlich testen, um potenzielle Verzerrungen zu testen und bei Bedarf Änderungen vorzunehmen. Dies kann das Testen der Leistung des Algorithmus in verschiedenen Populationen und das Vergleichen seiner Ergebnisse mit anderen ähnlichen Systemen umfassen. Die Überwachung hilft auch, neue Formen der Voreingenommenheit zu identifizieren, wenn sich die Gesellschaft entwickelt.
Obwohl diese Strukturen existieren, um algorithmische Verzerrungen zu mildern, ist ihre Wirksamkeit begrenzt. Erstens kann das Sammeln einer Vielzahl von Daten aufgrund von Bedenken hinsichtlich der Vertraulichkeit und Verfügbarkeit von Daten schwierig sein. Zweitens können Fairness-Metriken reale Szenarien nicht immer genau widerspiegeln, was es schwierig macht, alle Arten von Diskriminierung zu erkennen.
Schließlich erfordern Erklärungstools Erfahrung und Zeit, was ihre Verfügbarkeit einschränken kann. Zusammenfassend lässt sich sagen, dass die Identifizierung und Abschwächung algorithmischer Vorurteile gegenüber LGBT-Personen einen multilateralen Ansatz erfordert, der die sorgfältige Untersuchung von Datenquellen, den Einsatz von Fairness-Maßnahmen während der Modellentwicklung, den Einsatz von Erklärungswerkzeugen und die regelmäßige Überwachung der Algorithmusleistung umfasst. Obwohl diese Strategien einen gewissen Schutz vor Diskriminierung bieten, ist mehr Forschung erforderlich, um aufkommende Formen der Voreingenommenheit in einer zunehmend vielfältigen Welt anzugehen.
Welche Strukturen gibt es, um algorithmische Vorurteile gegenüber LGBT-Personen zu erkennen und abzuschwächen und wie effektiv sind diese in der Praxis?
Es wurde eine Vielzahl von Rahmenbedingungen vorgeschlagen, um algorithmische Vorurteile gegen LGBT-Personen zu erkennen und abzuschwächen. Ein solcher Rahmen ist die Formal Ontology of Information Systems (FOIS), die Ontologie als „eine formale Spezifikation von Konzepten und Beziehungen definiert, die notwendig sind, um den Diskursbereich eines bestimmten Anwendungsbereichs darzustellen“ (Ram et al., 2015).