Osoby LGBT często doświadczają dyskryminacji ze względu na swoją tożsamość, co może mieć negatywne konsekwencje w różnych aspektach życia, takich jak zatrudnienie, opieka zdrowotna, edukacja i mieszkania publiczne. Oprócz uprzedzeń i bigoterii ze strony osób, istnieją również systemowe formy stronniczości, które mogą zwiększyć tę dyskryminację, w tym wbudowane w algorytmy stosowane w systemach sztucznej inteligencji (AI). Ten artykuł bada, w jaki sposób uprzedzenia algorytmiczne utrwalają dyskryminację osób LGBT i omawia strategie etycznie przeciwdziałania tym stronniczościom.
Algorytmy to zestawy instrukcji, które mówią komputerom, co robić. Mają one na celu podejmowanie decyzji w oparciu o dane wejściowe, często przy użyciu analizy statystycznej w celu identyfikacji wzorców i trendów.
Jednak gdy dane wykorzystywane do szkolenia systemu AI są niekompletne lub stronnicze, mogą prowadzić do błędów w podejmowaniu decyzji, które prowadzą do niesprawiedliwych wyników.
Na przykład system AI wyszkolony do analizy wniosków o pracę może przegapić wykwalifikowanych kandydatów o nietypowych nazwach lub nieodpowiednich cechach płci, co powoduje brak różnorodności w praktykach zatrudniania. Podobnie, system sztucznej inteligencji mający na celu wykrycie oszukańczych transakcji kartą kredytową może być mniej prawdopodobny w przypadku zakupów dokonywanych przez osoby transseksualne z powodu historycznych wzorców dyskryminacji w usługach finansowych.
Istnieje kilka sposobów, w jaki uprzedzenia algorytmiczne mogą wpływać na osoby LGBT.
Na przykład, randki aplikacje, które używają algorytmów uczenia maszynowego do dopasowania użytkowników w oparciu o ich preferencje mogą utrwalać szkodliwe stereotypy dotyczące niektórych orientacji seksualnych lub tożsamości płci. Te stereotypy mogą przyczynić się do wykluczenia społecznego i izolacji osób LGBT i dodatkowo wzmocnić stygmaty związane z ich tożsamością. Ponadto technologie zdrowotne oparte na grypie ptaków, takie jak chatboty, mogą nie pozwalać na dokładną diagnozę schorzeń dotykających pacjentów z LGBT, jeśli brakuje im wyczerpujących danych na temat specyficznych potrzeb tej populacji.
Wreszcie, oprogramowanie do rozpoznawania twarzy powszechnie używane w egzekwowaniu prawa zostało wykazane, aby błędnie zidentyfikować osoby transseksualne jako inną płeć, co prowadzi do niewłaściwych aresztowań i zatrzymań.
Aby rozwiązać te problemy etyczne, naukowcy i deweloperzy muszą współpracować, aby zapewnić sprawiedliwość i integrację systemów grypy ptaków. Jedno podejście polega na wykorzystaniu różnych zbiorów danych, które obejmują osoby LGBT w procesie rozwoju. Może to obejmować współpracę z organizacjami takimi jak GLAAD lub HRC w celu gromadzenia danych na temat doświadczeń i potrzeb społeczności LGBT. Inną strategią jest projektowanie procesów decyzyjnych, które uwzględniają wiele czynników, a nie polegają wyłącznie na kategoriach binarnych, takich jak męskie/żeńskie lub heteroseksualne/homoseksualne. Rozpoznając złożoność ludzkiej tożsamości i zachowania, systemy AI z czasem mogą stać się bardziej dokładne i sprawiedliwe.
Podsumowując, algorytmiczne zakłócenia w sztucznej inteligencji mogą zwiększyć dyskryminację osób LGBT poprzez utrwalanie istniejących uprzedzeń społecznych.
Jednak przy starannym uwzględnieniu i współpracy ekspertów w różnych dyscyplinach można stworzyć systemy grypy ptasiej, które promują równość i upodmiotowienie w grupach zmarginalizowanych.
Jaką rolę w utrwalaniu dyskryminacji osób LGBT odgrywają uprzedzenia algorytmiczne w sztucznej inteligencji i w jaki sposób można je traktować etycznie?
Uprzedzenie algorytmiczne odnosi się do sytuacji, w której algorytmy przynoszą wyniki, które nie są bezstronne, bezstronne i oparte na obiektywnych kryteriach, lecz raczej odzwierciedlają społeczne stereotypy i uprzedzenia programistów. Przykładowo, jeśli chodzi o technologie sztucznej inteligencji stosowane w miejscu pracy, takie uprzedzenia mogą prowadzić do nieuczciwych wyborów i decyzji o awansie.