Sztuczna Inteligencja (AI) poczyniła znaczne postępy w dziedzinach od opieki zdrowotnej do finansowania i rozrywki.
Stanowi to jednak wyjątkowe wyzwanie, jeśli chodzi o stronniczość wobec osób lesbijskich, gejowskich, biseksualnych, transseksualnych (LGBT). Ponieważ algorytmy AI są przeznaczone do uczenia się na podstawie danych i podejmowania decyzji opartych na wzorcach, mogą one odziedziczyć stronniczości po tych danych, jeśli są one niekompletne, stronnicze lub wprowadzające w błąd. Oznacza to, że systemy SI mogą utrwalać stereotypy i uprzedzenia wobec populacji LGBT, prowadząc do nierównych wyników w takich dziedzinach, jak zatrudnienie, mieszkalnictwo, edukacja i opieka zdrowotna. Aby zapewnić wszystkim sprawiedliwe rezultaty, deweloperzy muszą wdrożyć ramy etyczne promujące sprawiedliwość i integrację. Struktury te obejmują kilka mechanizmów, w tym reprezentację, łagodzenie skutków, audyt, monitorowanie i odpowiedzialność. Dzięki wdrożeniu tych mechanizmów deweloperzy mogą tworzyć systemy sztucznej inteligencji, które nie dyskryminują osób LGBT i zapewniają im równe szanse. Po pierwsze, programiści muszą zapewnić, że osoby LGBT są odpowiednio reprezentowane w swoich zbiorach danych. Jeżeli osoby LGBT są niedostatecznie reprezentowane w danych wykorzystywanych do szkolenia modeli AI, system ten prawdopodobnie będzie odzwierciedlał te stronniczości i nie odzwierciedla dokładnie różnorodności populacyjnej. Dlatego programiści muszą współpracować z różnymi grupami, aby zebrać dokładne i reprezentatywne dane, które obejmują osoby LGBT. Powinny one również unikać używania w swoim kodzie zaimków specyficznych dla płci, a zamiast tego używać języka niejednoznacznego, takiego jak „oni/oni", umożliwiając bardziej integracyjny system.
Po drugie, deweloperzy mogą wdrożyć takie techniki jak oczyszczanie danych i oversampling, aby zminimalizować stronniczość LGBT. Oczyszczanie danych wiąże się z usunięciem wszelkich informacji, które mogą prowadzić do dyskryminacji, natomiast nadmierne pobieranie próbek zwiększa liczbę przypadków niedostatecznie reprezentowanych grup w danych. Zapewnia to, że system rozpoznaje i reprezentuje wszystkich w równym stopniu.
Na przykład, jeśli model jest szkolony na zbiorze danych, gdzie tylko 5% obrazów obejmuje par homoseksualnych, może interpretować je jako nienormalne lub nietypowe, co skutkuje błędnymi decyzjami. Po trzecie, deweloperzy mogą regularnie monitorować wydajność swoich algorytmów za pomocą takich technik jak wyjaśnione AI (XAI). XAI wykorzystuje wizualizacje i inne narzędzia, aby pokazać, w jaki sposób algorytm podejmuje swoje decyzje, umożliwiając programistom identyfikację wszelkich wzorców lub uprzedzeń, które mogą wpływać na określone grupy. Dzięki temu mogą szybko wykrywać i korygować wszelką niesprawiedliwość w systemie.
Wreszcie deweloperzy mogą ponosić odpowiedzialność za wyniki swoich systemów. Powinny one monitorować takie wskaźniki, jak dokładność, sprawiedliwość i integracja społeczna, a także otwarcie publikować wyniki, umożliwiając innym ocenę ich postępów.
Mogą również tworzyć polityki i procedury zapewniające przejrzystość i szybkie rozwiązywanie problemów, gdy pojawią się.
Podsumowując, wdrożenie ram etycznych w rozwoju sztucznej inteligencji ma zasadnicze znaczenie dla zapewnienia sprawiedliwych wyników dla wszystkich populacji, w tym osób LGBT. Deweloperzy muszą odpowiednio reprezentować różne grupy, oczyścić dane, aby wyeliminować stronniczość, używać oversamplingu, aby zrównoważyć reprezentację, monitorować wydajność systemu z XAI i odpowiadać za wyniki. Mechanizmy te pomogą stworzyć systemy grypy ptaków, które nie dyskryminują osób LGBT i zapewnią im równe szanse.
Jakie mechanizmy w sztucznej inteligencji przyczyniają się do stronniczości wobec populacji LGBT i w jaki sposób deweloperzy mogą wdrażać ramy etyczne w celu zapewnienia sprawiedliwych wyników?
Systemy sztucznej inteligencji (AI) zostały znalezione wykazać stronniczość wobec osób lesbijek, gejów, biseksualistów i transseksualistów (LGBT), często w wyniku dyskryminujących wyników. Wynika to w dużej mierze z polegania na zbiorach danych, które nie reprezentują tych grup lub same są stronnicze.