Osoby LGBT od wieków doświadczają dyskryminacji w różnych aspektach swojego życia ze względu na orientację seksualną i tożsamość płciową.
Jednak ostatnie postępy w dziedzinie technologii sztucznej inteligencji przyniosły nowe wyzwania dla tej społeczności. Algorytmy, które napędzają wiele procesów decyzyjnych, są teraz w stanie generować wyniki w oparciu o wzorce danych, które mogą potencjalnie utrwalić uprzedzenia. Wzbudziło to obawy co do potencjalnej roli tych algorytmów we wzmacnianiu istniejących stronniczości anty-LGBT, co mogłoby prowadzić do dalszego wykluczenia z możliwości, usług i zasobów. W tym artykule analizujemy strukturalne i algorytmiczne uprzedzenia występujące w systemach AI i omawiamy strategie ich skutecznego złagodzenia.
Bias strukturalny
Jedną z tendencji strukturalnych istniejących w systemach AI jest brak reprezentacji osób LGBT w zbiorach danych szkoleniowych. Większość danych szkoleniowych wykorzystywanych do projektowania algorytmów jest zbierana z populacji heteronormatywnych, co prowadzi do zniekształconej perspektywy świata, która nie odzwierciedla dokładnie różnorodnych doświadczeń osób LGBT. Na przykład modele językowe wyszkolone na firmę tekstową mogą zawierać język wzmacniający negatywne stereotypy lub obraźliwe terminy dotyczące osób LGBT, które mogą wpływać na sposób interakcji z systemem. Brak reprezentacji LGBT w danych szkoleniowych oznacza również, że systemy mogą nie uznawać potrzeb i preferencji tej społeczności, co prowadzi do niedostatecznie optymalnych zaleceń i usług.
Uprzedzenie algorytmiczne
Inny rodzaj stronniczości w systemach AI wynika z użycia cech dyskryminujących. Obejmują one zmienne takie jak rasa, wiek, płeć, lokalizacja i status społeczno-ekonomiczny, z których wszystkie mogą przyczyniać się do stronniczych wyników w połączeniu z innymi czynnikami.
Na przykład pracodawca może użyć algorytmu do sprawdzania kandydatów do pracy w oparciu o określone kwalifikacje, ale jeśli ich algorytm jest zaprogramowany tak, aby faworyzować wnioskodawców posiadających podobne doświadczenie zawodowe jak poprzedni pracownicy (tj. biali mężczyźni), może to wykluczyć wykwalifikowanych wnioskodawców LGBT. Podobnie, randki aplikacje mogą wyświetlać tylko heteroseksualne mecze dla użytkowników, z wyłączeniem queer ludzi od znalezienia kompatybilnych partnerów.
Strategie łagodzące
Można wdrożyć kilka strategii w celu rozwiązania tych problemów, aby zapewnić, że systemy AI są zaprojektowane z myślą o włączeniu społecznym:
1. Zwiększona reprezentacja: Jednym ze sposobów złagodzenia uprzedzeń strukturalnych jest zwiększenie reprezentacji osób LGBT w zbiorach danych szkoleniowych. Przedsiębiorstwa powinny dążyć do dywersyfikacji swojej siły roboczej i bazy klientów, zapewniając, że ich produkty odzwierciedlają szeroki zakres doświadczeń i perspektyw. Można to osiągnąć poprzez ukierunkowane praktyki rekrutacyjne, partnerstwa z organizacjami reprezentującymi niedostatecznie reprezentowane społeczności oraz gromadzenie danych z różnych populacji.
2. Regularne audyty modeli: Ważne jest, aby stale monitorować wydajność systemów AI w celu zidentyfikowania potencjalnych uprzedzeń wobec osób LGBT. Polega to na regularnej ocenie algorytmów przy użyciu obiektywnych kryteriów, takich jak wskaźniki dokładności, wskaźniki błędów i drzewa decyzyjne. Przedsiębiorstwa mogą zapobiegać dyskryminacji systemowej poprzez wczesne identyfikowanie i eliminowanie wszelkich różnic.
3. Organizacje powinny zapewniać dalsze inicjatywy w zakresie kształcenia i podnoszenia świadomości w celu promowania różnorodności i integracji w swoich grupach. Obejmuje to szkolenie pracowników na temat sposobu uznawania i unikania stronniczego języka i zachowań oraz zapewnienie środków dla osób, które mogą być dyskryminowane lub nękane.
4. Stosowanie wyraźnych identyfikatorów uprzedzeń: Aby rozwiązać problem uprzedzeń algorytmicznych, programiści mogą używać jednoznacznych identyfikatorów, takich jak wiek, płeć i orientacja seksualna, aby wykluczyć pewne zmienne w procesie decyzyjnym.
Na przykład pracodawca może stworzyć opis pracy, który określa „brak preferencji" dla orientacji seksualnej, a nie poleganie wyłącznie na CV kandydata.Podobnie, aplikacje randkowe mogą umożliwiać użytkownikom filtrowanie meczów w oparciu o określone preferencje, a nie poleganie wyłącznie na ustawieniach domyślnych.
Podsumowując, zakłócenia strukturalne i algorytmiczne w sztucznej inteligencji stanowią poważne zagrożenie dla dostępu osób LGBT do możliwości, usług i zasobów. Przedsiębiorstwa powinny podejmować proaktywne działania w celu złagodzenia tych uprzedzeń poprzez zwiększenie reprezentacji, regularne audyty modeli, promowanie szkoleń w zakresie różnorodności oraz włączanie do swoich systemów wyraźnych identyfikatorów uprzedzeń. Dzięki temu mogą zapewnić, że systemy AI są zaprojektowane z myślą o włączeniu społecznym, co prowadzi do bardziej sprawiedliwych wyników dla wszystkich.
Jakie strukturalne i algorytmiczne uprzedzenia w sztucznej inteligencji utrwalają dyskryminację osób LGBT i w jaki sposób można je skutecznie złagodzić?
Uprzedzenia strukturalne i algorytmiczne, które są powszechne w systemach sztucznej inteligencji (AI), mogą tworzyć bariery dla reprezentacji osób LGBT w zbiorach danych wykorzystywanych do szkolenia tych modeli AI. Ten brak reprezentacji może prowadzić do niedokładnych prognoz i podejmowania decyzji przez systemy sztucznej inteligencji, co może dodatkowo nasilić dyskryminację.