Dieser Artikel diskutiert, wie das Design von Systemen künstlicher Intelligenz (KI) unbeabsichtigt heteronormative Annahmen kodieren kann, die Überzeugungen über Geschlechterrollen und sexuelle Normen darstellen, die traditionelle, oft patriarchale Werte widerspiegeln. Es untersucht die verschiedenen Möglichkeiten, wie sich solche Vorurteile in der KI-Technologie manifestieren können, und schlägt mögliche Strategien vor, um sie zu identifizieren und zu korrigieren. Heteronormativität bezieht sich auf die Erwartung, dass Menschen sich an bestimmte Geschlechterrollen halten und in monogame, heterosexuelle romantische Beziehungen eintreten, wobei Männer im Allgemeinen dominante Positionen innerhalb dieser Arrangements einnehmen. Diese Annahmen sind in vielen Kulturen und Gesellschaften auf der ganzen Welt tief verwurzelt und wurden durch Jahrhunderte der Sozialisierung und Indoktrination untermauert. In den letzten Jahren hat jedoch die Anerkennung der schädlichen Auswirkungen heteronormativer Strukturen auf Menschen, die diese Normen nicht erfüllen, zugenommen, was zu einer Zunahme der Forderungen nach deren Abbau führt. Ein Bereich, in dem dieses Problem besonders akut ist, ist die Entwicklung künstlicher Intelligenzsysteme, die stark von Datensätzen und Algorithmen abhängen, die auf bereits bestehenden kulturellen Vorurteilen basieren können. Zum Beispiel können maschinelle Lernmodelle, die verwendet werden, um Chatbots oder virtuelle Assistenten zu generieren, Sprachmuster und Antworten enthalten, die eine binäre Geschlechterstruktur suggerieren und Stereotypen über Männlichkeit und Weiblichkeit aufrechterhalten. In ähnlicher Weise kann Gesichtserkennungssoftware darum kämpfen, nicht-binäre Geschlechter genau zu identifizieren und sie von wichtigen Diensten und Ressourcen auszuschließen. Glücklicherweise gibt es mehrere Methoden, um diese Vorurteile in KI-Systemen zu erkennen und zu korrigieren. Ein Ansatz besteht darin, eine Sensitivitätsanalyse durchzuführen, um zu bewerten, wie verschiedene demografische Gruppen mit dem System interagieren können, und mögliche blinde Flecken oder Diskriminierungsbereiche zu identifizieren. Eine andere Strategie beinhaltet die Entwicklung alternativer Datensätze, die vielfältigere Perspektiven und Erfahrungen widerspiegeln, wie Transgender- oder intergeschlechtliche Persönlichkeiten. Darüber hinaus können Forscher Techniken wie Contracting-Training verwenden, um KI-Modelle Szenarien auszusetzen, die ihre zugrunde liegenden Annahmen in Frage stellen und es ihnen ermöglichen, sich entsprechend anzupassen und zu entwickeln. Im Allgemeinen erfordert die Lösung des Problems der heteronormativen Verschiebung im KI-Design sowohl ein Bewusstsein für seine Allgegenwart als auch Kreativität bei der Identifizierung effektiver Lösungen. Durch die Priorisierung von Inklusion und Gerechtigkeit bei der Technologieentwicklung können wir dazu beitragen, eine Zukunft zu schaffen, in der alle Menschen in vollem Umfang an unserer zunehmend digitalen Gesellschaft teilnehmen können, ohne Angst vor Diskriminierung oder Marginalisierung zu haben.
Wie kann das Design von KI-Systemen unbeabsichtigt heteronormative Annahmen kodieren und welche Methoden gibt es, um diese Vorurteile zu erkennen und zu korrigieren?
Der Begriff „Heteronormativität“ bezieht sich auf die Überzeugung, dass Heterosexualität die einzige akzeptable sexuelle Orientierung ist, die normalerweise durch soziale Institutionen wie Ehegesetze und Familienstrukturen verstärkt wird. Dies kann problematisch sein, wenn es um die Gestaltung von Systemen der künstlichen Intelligenz (KI) geht, da sie diese Verzerrung unbeabsichtigt in ihre Algorithmen und Entscheidungsprozesse kodieren können.