Logo

ZeroOpposite

Contact Us
Search

SEKSUALNOŚĆ I SZTUCZNA INTELIGENCJA: JAK LGBTQ + BIAS MOŻNA ZŁAGODZIĆ POPRZEZ SKUTECZNE MECHANIZMY plEN IT FR DE PT RU AR JA CN ES

Rozważając potencjalne uprzedzenia w systemach sztucznej inteligencji (AI), należy rozważyć te, które mogą mieć wpływ na osoby, które utożsamiają się z lesbijkami, gejami, biseksualistami, transseksualistami i problemami queer/queer (LGBTQ +). Uprzedzenia te mogą mieć poważne konsekwencje dla ich bezpieczeństwa, prywatności, dostępu do opieki zdrowotnej, możliwości zatrudnienia i innych.

Istnieje jednak kilka mechanizmów pozwalających wykryć, złagodzić i zapobiec utrwaleniu tych stronniczości w systemach AI. W tym artykule badam, jak skuteczne są te mechanizmy w praktyce.

Kontrolowany jest jeden mechanizm wykrywania uprzedzeń w zakresie grypy ptaków przeciwko populacjom LGBT. Polega to na sprawdzeniu kodu algorytmu i źródeł danych, czy odzwierciedlają one różnorodność populacji, którą mają służyć.

Na przykład firma rozwijająca aplikację randkową online może zatrudnić niezależnego konsultanta do oceny, czy jej algorytmy obejmują terminy związane z tożsamością płciową lub orientacją seksualną, które mogą wykluczyć niektórych użytkowników. Jeśli tak, konsultant zaleciłby zmiany w algorytmie, aby uczynić go bardziej integracyjnym. Inną metodą wykrywania jest testowanie różnych grup. Badanie, opublikowane w Nature, pokazuje, w jaki sposób zespół badaczy przetestował model klasyfikacji obrazów za pomocą rysunków twarzy i stwierdził, że dokonał niedokładnych prognoz na temat orientacji seksualnej na podstawie stereotypów, takich jak brody czy kolczyki. Wyniki skłoniły naukowców do przeklasyfikowania modelu za pomocą większego i bardziej reprezentatywnego zbioru danych.

Innym podejściem do rozwiązywania problemów związanych z AI jest analiza kapitału własnego. Polega to na zmierzeniu wpływu określonego procesu decyzyjnego na różne populacje. Badania przeprowadzone przez ProPublica wykazały, że system rekrutacji Amazon jest mniej prawdopodobne, aby wybrać kandydatki, ponieważ woli wznowić, które mają słowo „wykonawczy" do tych, którzy go nie mają. Analizując proces decyzyjny, w badaniu zidentyfikowano potencjalne uprzedzenia wobec kobiet. W rezultacie Amazon zaktualizował swój system w celu usunięcia terminu „executive". Analiza praw własności może być również wykorzystana do identyfikacji uprzedzeń w innych dziedzinach, takich jak wymiar sprawiedliwości w sprawach karnych, opieka zdrowotna i mieszkalnictwo.

Aby złagodzić uprzedzenia dotyczące grypy ptaków, jedną ze strategii jest użycie wyjaśnień alternatywnych. Wyjaśniają one, dlaczego podjęto konkretną decyzję i sugerują alternatywy, które mogły doprowadzić do innego wyniku.

Na przykład, jeśli kredytodawca hipoteczny wykorzystuje AI do określenia zdolności kredytowej, musi przedstawić wyjaśnienia dotyczące decyzji, które nie są korzystne dla wnioskodawców LGBT.

Na przykład, alternatywne wyjaśnienie może czytać: „Jeśli dochód był $500 wyższy, można zakwalifikować się do tego kredytu". Inną strategią jest wdrożenie ograniczeń wejściowych i algorytmicznych.

Na przykład bank może ograniczyć stosowanie języka specyficznego dla płci przy określaniu kwalifikowalności kredytu.

Plus, istnieje kilka kroków, które firmy mogą podjąć, aby zapobiec uprzedzeniu AI w pierwszej kolejności. Jednym z podejść jest zbieranie informacji demograficznych o użytkownikach lub klientach. Firmy takie jak Google i Facebook wymagają, aby ich deweloperzy brali pod uwagę różnorodność podczas projektowania produktów, co pomaga zapewnić, że ich systemy nie wykluczają nieumyślnie niektórych grup. Inną strategią jest wykorzystanie różnorodnych zbiorów danych podczas szkolenia modelowego w celu zmniejszenia ryzyka stereotypowania.

Wreszcie, firmy mogą budować wytyczne etyczne w swoich procesach rozwoju sztucznej inteligencji, aby zapewnić uczciwość i przejrzystość w całym procesie.

Chociaż mechanizmy te istnieją w celu wykrywania, łagodzenia i zapobiegania uprzedzeniom wobec osób LGBT, ich skuteczność zależy od kilku czynników. Niektóre badania pokazują, że sam audyt nie może całkowicie wyeliminować wszelkich form dyskryminacji, ponieważ uprzedzenia mogą być subtelne i trudne do zdefiniowania. Inne badania sugerują, że audyt może być przydatny, ale wymagają, aby wiedza fachowa zarówno w zakresie uczenia maszynowego, jak i sprawiedliwości społecznej była skuteczna. Wyjaśnienia alternatywne nie zawsze mogą być dokładne lub kompleksowe, a ograniczenia mogą prowadzić do nowych zagrożeń, jeśli są zbyt restrykcyjne.Tworzenie integracji w procesie projektowania może również wymagać zasobów i pracowników, którzy rozumieją, jak różne tożsamości przecinają się z technologią.

Ogólnie rzecz biorąc, potrzeba będzie trwałego wysiłku ze strony liderów przemysłu, decydentów politycznych i grup adwokackich, aby zapewnić, że systemy AI służą wszystkim w równym i uczciwym stopniu.

Jakie mechanizmy są stosowane w celu wykrywania, łagodzenia i zapobiegania uprzedzeniom wobec osób LGBT oraz ich skuteczności w praktyce?

Pomimo rosnącej akceptacji społeczności lesbijek, gejów, biseksualistów, transseksualistów (LGBT), nadal istnieją stronniczości w sztucznej inteligencji (AI). Uprzedzenia te pojawiają się jako uprzedzenia oparte na tożsamości płciowej, orientacji seksualnej, rasie, wieku, przynależności etnicznej, religii, wyglądzie itp., które mogą być wbudowane w dane szkoleniowe wykorzystywane do szkolenia algorytmów. Różni badacze zaproponowali różne mechanizmy przeciwdziałania uprzedzeniom w zakresie grypy ptaków przeciwko populacjom LGBT.