Artykuł ten omawia, w jaki sposób konstrukcja systemów sztucznej inteligencji (AI) może nieumyślnie kodować heteronormatywne założenia, które są wierzeniami na temat ról płci i norm seksualnych, które odzwierciedlają tradycyjne, często patriarchalne, wartości. Bada różne sposoby, w jaki takie uprzedzenia mogą przejawiać się w technologii AI i sugeruje potencjalne strategie ich identyfikacji i korygowania.
Heteronormatyczność odnosi się do oczekiwania, że ludzie będą przestrzegać pewnych ról płci i angażować się w monogamiczne, heteroseksualne romantyczne relacje, z mężczyznami zwykle zajmującymi dominujące pozycje w tych układach. Założenia te są głęboko osadzone w wielu kulturach i społeczeństwach na całym świecie i zostały wzmocnione przez wieki socjalizacji i indoktrynacji. Jednak w ostatnich latach rośnie uznanie szkodliwych skutków struktur heteronormatywnych dla osób, które nie spełniają tych norm, co prowadzi do wzrostu liczby wezwań do ich demontażu.
Jednym z obszarów, w których problem ten jest szczególnie dotkliwy, jest rozwój systemów sztucznej inteligencji, które w dużym stopniu opierają się na zbiorach danych i algorytmach, które mogą opierać się na istniejących wcześniej stronniczościach kulturowych. Na przykład modele uczenia maszynowego używane do generowania czatbotów lub wirtualnych asystentów mogą obejmować wzorce językowe i odpowiedzi sugerujące binarną strukturę płci, utrwalające stereotypy męskości i kobiecości. Podobnie, oprogramowanie do rozpoznawania twarzy może zmagać się z dokładnym określeniem płci niejednoznacznej, wyłączając je z ważnych usług i zasobów. Na szczęście istnieje kilka metod wykrywania i korygowania tych uprzedzeń w systemach AI. Jednym z podejść jest przeprowadzanie analiz wrażliwości, aby ocenić, w jaki sposób różne grupy demograficzne mogą współdziałać z systemem i zidentyfikować potencjalne niewidome miejsca lub obszary dyskryminacji. Inna strategia obejmuje opracowanie alternatywnych zbiorów danych, które odzwierciedlają bardziej zróżnicowane perspektywy i doświadczenia, takie jak transseksualne lub interseksualne jednostki.
Dodatkowo naukowcy mogą wykorzystywać takie techniki, jak uczenie się przeciwstawne, aby narażać modele AI na scenariusze, które podważają ich podstawowe założenia, umożliwiając im odpowiednie dostosowanie i ewolucję.
Ogólnie rzecz biorąc, zajęcie się heteronormatywną stronniczością w projektowaniu sztucznej inteligencji wymaga zarówno świadomości jej wszechobecności, jak i kreatywności w identyfikacji skutecznych rozwiązań. Traktując priorytetowo integrację i równość w rozwoju technologii, możemy pomóc stworzyć przyszłość, w której wszyscy ludzie mogą w pełni uczestniczyć w naszym coraz bardziej cyfrowym społeczeństwie bez obawy przed dyskryminacją lub marginalizacją.
W jaki sposób systemy AI mogą nieumyślnie kodować heteronormatywne założenia i jakie metody są stosowane do wykrywania i korygowania tych uprzedzeń?
Termin „heteronormatyczność” odnosi się do przekonania, że heteroseksualność jest jedyną dopuszczalną orientacją seksualną, która jest zwykle wzmacniana przez instytucje społeczne, takie jak prawa małżeńskie i struktury rodzinne. Może to być problematyczne, jeśli chodzi o projektowanie systemów sztucznej inteligencji (AI), ponieważ mogą one nieumyślnie zakodować tę stronniczość do swoich algorytmów i procesów decyzyjnych.