AI jest ekscytującą nową technologią, która ma wiele potencjalnych korzyści dla społeczeństwa, ale również wiąże się z ryzykiem. Jednym z obszarów, w którym grypa ptaków może być szczególnie szkodliwa, są jej interakcje z marginalizowanymi społecznościami, takimi jak ludność LGBT. Kiedy algorytmy AI są wykorzystywane do podejmowania decyzji dotyczących zatrudniania, mieszkań, kredytów, opieki zdrowotnej lub wymiaru sprawiedliwości w sprawach karnych, mogą one utrwalać istniejące stronniczości i dyskryminację, jeśli nie są one zaprojektowane poprawnie. Artykuł ten zbada, jakie są praktyczne mechanizmy pozwalające na identyfikację, zapobieganie i łagodzenie uprzedzeń wobec osób LGBT oraz ich skuteczność w praktyce.
Najpierw zdefiniujmy pewne terminy. Termin „AI" odnosi się do systemów komputerowych, które mogą wykonywać zadania typowo wymagające ludzkiej inteligencji, takie jak rozpoznawanie mowy, podejmowanie decyzji czy uczenie się oparte na danych. Termin „stronniczość" odnosi się do systematycznego błędu w tych procesach spowodowanego błędnymi wejściami lub słabym programowaniem. Termin „LGBT" odnosi się do osób lesbijskich, gejowskich, biseksualnych i transseksualnych. Obejmuje to osoby, które nie identyfikują się jako ściśle męskie lub żeńskie, lub które są przyciągane do ludzi różnych płci.
Wreszcie, „populacja" odnosi się do każdej grupy osób, które mają wspólne cechy.
Jednym ze sposobów zapobiegania uprzedzeniom wobec grup LGBT jest szkolenie zbiorów danych. Zestawy danych szkoleniowych to zestawy przykładów używanych do szkolenia algorytmów uczenia maszynowego w celu rozpoznawania wzorców w danych. Jeśli przykłady te obejmują tylko obrazy osób prostych, cisgender (czyli osób, których tożsamość płciowa pasuje do ich płci przypisanej przy urodzeniu), to algorytm AI może mieć problemy z rozpoznawaniem na przykład osób niebędących osobami binarnymi. Aby temu zaradzić, naukowcy mogą tworzyć bardziej zróżnicowane zbiory danych szkoleniowych, które obejmują obrazy osób LGBT.
To podejście ma jednak ograniczenia: gromadzenie wystarczającej ilości danych do szkolenia dużych modeli jest kosztowne i czasochłonne i nie rozwiązuje problemu istniejącej dyskryminacji w ramach istniejących baz danych.
Innym mechanizmem jest wykorzystanie środków kapitałowych w opracowywaniu modelu. Mierniki kapitału własnego mierzą zakres, w jakim system AI traktuje różne grupy równie dobrze.
Przykładowo, jedną miarą może być dokładność, która mierzy, jak dokładnie model przewiduje, czy ktoś należy do określonej kategorii, np. „mężczyzna" czy „kobieta". Inną metryką może być wyrównane prawdopodobieństwo, które mierzy, czy prawdopodobieństwo błędnej klasyfikacji między grupami jest znacznie inne. Poprzez pomiar kapitału własnego deweloperzy mogą określić, kiedy ich modele są stronnicze i dokonać odpowiednich korekt.
Jednak wskaźniki kapitałowe wymagają starannego projektowania i wdrażania, a nie zawsze są skuteczne w wykrywaniu wszelkich form stronniczości.
Wreszcie inną strategią jest wdrożenie wyjaśnionych systemów AI. Zrozumiałe systemy sztucznej inteligencji zapewniają przejrzystość procesów decyzyjnych, dzięki czemu użytkownicy mogą zrozumieć, dlaczego dokonali konkretnej prognozy. Może to pomóc użytkownikom wykryć i naprawić błędy w systemie w razie potrzeby.
Jednak, wyjaśnione systemy AI mogą nadal zawierać stronniczości, ponieważ polegają na interpretacji człowieka, a ludzie są również podatni na uprzedzenia.
Ogólnie rzecz biorąc, chociaż mechanizmy te istnieją w celu zapobiegania uprzedzeniom w zakresie grypy ptaków przeciwko populacjom LGBT, nie zawsze są one skuteczne w praktyce. Deweloperzy muszą nadal ciężko pracować, aby zapewnić, że ich algorytmy traktują wszystkich sprawiedliwie i bez uszczerbku. Dzięki temu możemy stworzyć bardziej sprawiedliwe i sprawiedliwe społeczeństwo, w którym każdy ma dostęp do korzyści płynących z tej ekscytującej nowej technologii.
Jakie są praktyczne mechanizmy umożliwiające identyfikację, zapobieganie i łagodzenie uprzedzeń w zakresie grypy ptaków przeciwko populacjom LGBT oraz ich skuteczność w praktyce?
AI tendencja odnosi się do zjawiska, gdzie systemy AI wykazują niesprawiedliwe zachowanie wobec niektórych grup ludzi w oparciu o ich cechy, takie jak płeć, rasa, orientacja seksualna, itp. Identyfikacja sztucznej inteligencji wymaga gromadzenia danych z różnych źródeł i analizowania ich pod kątem wzorców, które mogą wskazywać na dyskryminację. Zapobieganie uprzedzeniom w zakresie sztucznej inteligencji wiąże się z wykorzystaniem takich technik jak audyt algorytmiczny i szkolenia w zakresie różnorodności dla programistów.