Jakie struktury są w stanie zidentyfikować i złagodzić uprzedzenia algorytmiczne wobec osób LGBT w sztucznej inteligencji i jak skuteczne są one w praktyce?
Uprzedzenia algorytmiczne odnoszą się do tendencji algorytmów uczenia maszynowego do tworzenia niesprawiedliwych wyników w oparciu o pewne cechy, takie jak rasa, płeć, wiek, orientacja seksualna, religia, itp. Może to nastąpić, gdy dane wykorzystywane do szkolenia tych algorytmów są stronnicze lub gdy same algorytmy zawierają błędy kodowania, które powodują, że podejmują one złe decyzje. W ostatnich latach wzrasta świadomość, że uprzedzenia algorytmiczne mogą wpływać na zmarginalizowane grupy, takie jak osoby LGBT, które mogą doświadczać dyskryminacji w zakresie zatrudnienia, mieszkań, opieki zdrowotnej i innych dziedzin życia.
Zaproponowano kilka ram, aby rozwiązać ten problem w celu zidentyfikowania i złagodzenia uprzedzeń algorytmicznych wobec osób LGBT w sztucznej inteligencji. Jednym z podejść jest opracowanie narzędzi monitorujących wydajność algorytmu w różnych podgrupach w ramach organizacji lub branży.
Na przykład zestaw narzędzi Fairness, opracowany przez IBM, zapewnia zestaw mierników do pomiaru uczciwości modeli uczenia maszynowego w różnych grupach, w tym osób LGBT. Innym podejściem jest zastosowanie technik, takich jak sprawiedliwość przeciwna, polegających na modelowaniu alternatywnych scenariuszy w celu ustalenia, czy wystąpiłyby konkretne rezultaty, gdyby grupa nie była stronnicza.
Ponadto niektórzy badacze sugerowali stosowanie „przeciwnych" podejść do neutralizacji uprzedzeń algorytmicznych. Wiąże się to z treningiem przeciwnika, który próbuje przewidzieć wyjście danego systemu AI przy jednoczesnym zminimalizowaniu jego dokładności dla określonych subpopulacji. Karmienie tego przeciwnika oryginalnym modelem uczy się generowania bardziej sprawiedliwych prognoz bez naruszania ogólnej dokładności.
Krytycy twierdzą jednak, że metoda może prowadzić do niezamierzonych konsekwencji i wzbudzić obawy dotyczące prywatności i bezpieczeństwa. Mimo tych wysiłków skuteczność istniejących systemów w praktyce pozostaje jednak ograniczona. Wiele organizacji próbuje wdrożyć te metody ze względu na brak zasobów, wiedzy specjalistycznej lub zaangażowania zainteresowanych stron.
Ponadto często istnieją konkurencyjne priorytety i kompromisy między kapitałem własnym a innymi czynnikami, takimi jak dokładność, opłacalność i skalowalność. Na przykład, firmom może być trudno zrównoważyć potrzebę dokładnych prognoz z chęcią wyeliminowania uprzedzeń wobec niektórych grup.
Ogólnie rzecz biorąc, rozwiązanie problemu uprzedzeń algorytmicznych wymaga wielokrotnego podejścia obejmującego współpracę między środowiskiem akademickim, przemysłem, rządem i społeczeństwem obywatelskim. Pomimo poczynionych postępów, trzeba zrobić więcej, zanim zdołamy w pełni wyeliminować dyskryminację w sztucznej inteligencji.
Jakie struktury są w stanie zidentyfikować i złagodzić uprzedzenia algorytmiczne wobec osób LGBT w sztucznej inteligencji i jak skuteczne są one w praktyce?
Problem uprzedzeń algorytmicznych wobec osób LGBT nie jest nowy; naukowcy od dawna wiedzą, że systemy grypy ptaków mogą utrwalać dyskryminację ze względu na orientację seksualną i tożsamość płciową. Jedną z podstaw do zidentyfikowania tych stronniczości jest paradygmat prywatności i bezpieczeństwa, który podkreśla problemy związane z prywatnością i bezpieczeństwem jako kluczowe czynniki rozumienia uprzedzeń. Ramy te sugerują, że algorytmy sztucznej inteligencji mogą odzwierciedlać domniemane stronniczości w źródłach danych, w tym postach w mediach społecznościowych, wyszukiwaniu online i artykułach informacyjnych.