Uprzedzenia algorytmiczne odnoszą się do uprzedzeń, które mogą wystąpić, gdy algorytmy stosowane do podejmowania decyzji w różnych dziedzinach, takich jak zatrudnianie, udzielanie pożyczek i opieka zdrowotna, mogą prowadzić do niesprawiedliwych wyników z powodu stronniczego wprowadzania danych. Rośnie zaniepokojenie potencjalnym wpływem uprzedzeń algorytmicznych na osoby należące do grup marginalizowanych, takich jak osoby lesbijskie, gejowskie, biseksualne, transseksualne (LGBT). W niniejszym dokumencie omówione zostaną istniejące struktury identyfikacji i łagodzenia uprzedzeń algorytmicznych wobec osób LGBT oraz ich skuteczność w praktyce.
Pierwsza struktura obejmuje naukę źródeł danych wykorzystywanych do szkolenia algorytmu. Zapewnia to, że dane szkoleniowe dokładnie odzwierciedlają podaną populację.
Na przykład, jeśli algorytm zatrudnienia jest szkolony przy użyciu życiorysów heteroseksualnych mężczyzn, może to prowadzić do stronniczych wyników dla wnioskodawców LGBT. Aby tego uniknąć, organizacje mogą włączyć do swoich zbiorów danych szkoleniowych różne źródła danych reprezentujące całą płeć, orientację seksualną i tożsamość płciową.
Inne podejście polega na wykorzystaniu środków kapitałowych w rozwoju modelu. Mierniki te oceniają, czy model traktuje różne podgrupy równo, czy też sprzyja jednej grupie nad drugą.
Na przykład wynik równości porównuje wyniki modelu w różnych grupach demograficznych, podczas gdy zróżnicowany środek oddziaływania ujawnia wszelkie różnice między wynikami grupy.
Ponadto można zastosować techniki post-processing, takie jak ponowne ważenie lub kalibracja, aby dostosować wyjście w oparciu o reprezentację grupy w zbiorze danych.
Dodatkowo narzędzia tłumaczeniowe mogą pomóc w analizie modeli czarnej skrzynki i zidentyfikowaniu wzorów lub korelacji, które mogą powodować szkody. Wyjaśniając proces decyzyjny algorytmu, metody te mogą wykrywać ukryte stronniczości, które mogły pozostać niezauważone w inny sposób. Możliwość wyjaśnienia umożliwia również algorytmy audytu w celu zapewnienia, że nie dyskryminują one niektórych grup.
Wreszcie regularne monitorowanie i ocena działania algorytmu ma kluczowe znaczenie dla utrzymania jego skuteczności. Organizacje muszą stale testować swoje algorytmy w celu zbadania potencjalnych stronniczości i w razie potrzeby wprowadzać zmiany. Może to obejmować testowanie działania algorytmu w różnych populacjach i porównywanie jego wyników z innymi podobnymi systemami. Monitorowanie pomaga również zidentyfikować nowe formy stronniczości społeczeństwa. Podczas gdy struktury te istnieją w celu złagodzenia stronniczości algorytmicznej, ich skuteczność jest ograniczona. Po pierwsze, gromadzenie różnorodnych danych może być trudne ze względu na kwestie prywatności i dostępności danych. Po drugie, wskaźniki kapitałowe mogą nie zawsze dokładnie odzwierciedlać scenariusze realne, co utrudnia wykrywanie wszelkiego rodzaju dyskryminacji.
Wreszcie narzędzia wyjaśniające wymagają doświadczenia i czasu, co może ograniczyć ich dostępność.
Podsumowując, identyfikacja i łagodzenie uprzedzeń algorytmicznych wobec osób LGBT wymaga wielokrotnego podejścia obejmującego dokładne badanie źródeł danych, wykorzystanie środków kapitałowych podczas opracowywania modelu, wykorzystanie narzędzi tłumaczeniowych oraz regularne monitorowanie wydajności algorytmu. Chociaż strategie te zapewniają pewną ochronę przed dyskryminacją, potrzebne są dalsze badania w celu rozwiązania problemu pojawiających się form stronniczości w coraz bardziej zróżnicowanym świecie.
Jakie struktury są w stanie zidentyfikować i złagodzić uprzedzenia algorytmiczne wobec osób LGBT i jak skuteczne są one w praktyce?
Zaproponowano wiele ram w celu określenia i złagodzenia uprzedzeń algorytmicznych wobec osób LGBT. Jednym z takich ram jest Formalna Ontologia Systemów Informacyjnych (FOIS), która definiuje ontologię jako „formalną specyfikację pojęć i relacji niezbędnych do reprezentowania dziedziny dyskursu konkretnego zastosowania” (Ram i in., 2015).