Können technologiebasierte Rekrutierungsalgorithmen quirphobe Abweichungen unter einer neutralen Fassade reproduzieren?
Technologiebasierte Einstellungsalgorithmen wurden entwickelt, um Daten über Arbeitssuchende zu analysieren und sie mit offenen Stellen abzugleichen. Sie zielen darauf ab, den Einstellungsprozess effizienter zu gestalten und weniger anfällig für menschliche Fehler wie unbewusste Voreingenommenheit zu sein.
Sie können jedoch einige Einschränkungen haben, die dazu führen können, dass quirphobe Vorurteile unter der neutralen Fassade reproduziert werden. In diesem Artikel werden wir untersuchen, wie solche Vorurteile auftreten, ihre Auswirkungen auf LGBTQ + -Menschen und wie sie gemildert werden können.
Funktionsweise technologischer Rekrutierungsalgorithmen
Technologische Rekrutierungsalgorithmen verwenden datenwissenschaftliche Methoden, um große Datensätze zu analysieren. Sie extrahieren relevante Funktionen aus Lebensläufen und Bewerbungen, definieren Vorlagen und ordnen sie den Arbeitsanforderungen zu. Algorithmen bewerten Fähigkeiten, Erfahrung, Bildung und andere Faktoren, die helfen, die Leistung vorherzusagen. Sie vergleichen die Kandidaten auch anhand dieser Kriterien miteinander.
Quirphobie im Recruiting
Quirphobie bezieht sich auf Diskriminierung oder Vorurteile gegenüber Menschen, die sich als lesbisch, schwul, bisexuell, transgender oder nicht-binär identifizieren. Es ist eine aktive Form der Unterdrückung, die alle Aspekte des Lebens betrifft, einschließlich der Beschäftigungsmöglichkeiten. Laut neueren Studien überwiegen quirphobe Beziehungen unter heterosexuellen Arbeitern und Managern, was zu niedrigeren Löhnen und einer geringeren Anzahl von Werbeaktionen für LGBTQ + -Mitarbeiter führen wird. So gaben 38% der LGBTQ + -Beschäftigten an, 2019 am Arbeitsplatz Diskriminierung aufgrund der sexuellen Orientierung oder Geschlechtsidentität erlebt zu haben.
Reproduktion von quirphobischen Vorurteilen unter einer neutralen Fassade
Technologische Rekrutierungsalgorithmen können quirphobe Vorurteile reproduzieren, indem sie sich auf irrelevante Merkmale konzentrieren oder bestimmte Gruppen gegenüber anderen bevorzugen.
Zum Beispiel können sie traditionellen männlichen oder weiblichen Merkmalen wie Führung oder Teamarbeit, die mit Heteronormativität verbunden sind, mehr Gewicht verleihen. Diese Vorurteile werden in den Lernprozess des Algorithmus eingebettet, von früheren Mitarbeitern verstärkt und branchenübergreifend repliziert.
Einfluss auf LGBTQ + Personen
Die Reproduktion quirphober Vorurteile unter einer neutralen Fassade hat erhebliche Folgen für LGBTQ + Arbeitssuchende. Sie stehen vor größeren Hindernissen bei der Jobsuche, der Beförderung und dem beruflichen Aufstieg. Dies führt zu höherer Arbeitslosigkeit und Unterbeschäftigung, erhöhtem Stress und geringerer Arbeitszufriedenheit. Noch schlimmer sind die Auswirkungen für Minderheiten-Untergruppen in der LGBTQ + -Community wie Transgender oder Menschen, die mit HIV/AIDS leben.
Quirphobe Bias mildern
Um quirphobe Bias in technologiebasierten Rekrutierungsalgorithmen zu mildern, sollten Organisationen proaktive Schritte unternehmen:
- Überprüfen Sie das Design des Algorithmus und stellen Sie sicher, dass er keine Stereotypen verewigt oder bestimmte demografische Merkmale begünstigt.
- Integrieren Sie Diversitätsmetriken in den Einstellungsprozess, einschließlich sexueller Orientierung und Geschlechtsidentität.
- Trainieren Sie Manager und Personalvermittler darin, implizite Vorurteile zu erkennen und ihnen aktiv entgegenzuwirken.
- Arbeiten Sie mit LGBTQ + Interessenvertretungen zusammen, um Best Practices zu identifizieren und Inklusion zu fördern.
Technologische Einstellungsalgorithmen können Unternehmen dabei helfen, fundiertere Entscheidungen über Kandidaten zu treffen.
Sie müssen jedoch sorgfältig entworfen und überwacht werden, um die Reproduktion quirphober Vorurteile zu vermeiden, die sich unverhältnismäßig stark auf marginalisierte Gemeinschaften auswirken. Durch die Bewältigung dieser Herausforderungen können wir einen faireren Arbeitsplatz schaffen, an dem alle Mitarbeiter auf der Grundlage ihrer Fähigkeiten und Beiträge gedeihen.
Können technologiebasierte Rekrutierungsalgorithmen quirphobe Vorurteile unter einer neutralen Fassade reproduzieren?
Technologische Rekrutierungsalgorithmen können entwickelt werden, um quirphobe Vorurteile zu reduzieren, die aus menschlichen Vorurteilen und Stereotypen resultieren, aber sie können nicht immer erfolgreich sein. Diese Systeme sind auf Daten angewiesen, um Entscheidungen über Kandidaten zu treffen, und wenn diese Daten voreingenommen sind, werden diese Vorurteile in ihren Entscheidungsprozessen fortbestehen.