technologia AI przekształciła sposób pracy i interakcji firm z klientami. Jednym z zastosowań AI jest identyfikacja płci, gdzie można określić, czy osoba jest mężczyzna lub kobieta na podstawie ich wyglądu lub zachowania.
Istnieją jednak obawy, że systemy te mogą wzmocnić uprzedzenia społeczne dotyczące tożsamości płci i stereotypów. Może to mieć poważne konsekwencje dla zmarginalizowanych grup, które już teraz stoją w obliczu dyskryminacji. W niniejszym dokumencie przeanalizowano, w jaki sposób systemy sztucznej inteligencji mogą zwiększać stronniczość społeczną w identyfikacji płci i omówiono sposoby złagodzenia tego problemu.
Na rozruszniki algorytmy AI polegają na dużych zbiorach danych, aby się szkolić. Te zbiory danych często odzwierciedlają istniejące stronniczości w społeczeństwie, co oznacza, że mogą je utrwalać podczas kategoryzacji lub przewidywania tożsamości płci.
Na przykład, oprogramowanie do rozpoznawania twarzy, które wykorzystuje obrazy z filmów i programów telewizyjnych ma tendencję do błędnej identyfikacji kobiet koloru jako mężczyzn ze względu na ograniczoną reprezentację w tych mediach. Podobnie asystenci głosowi, którzy rozpoznają wzorce mowy, zazwyczaj nie doceniają głosów kobiet, ponieważ wiele ich akcentów i dialektów nie jest uwzględnionych w danych szkoleniowych. Ponadto modele językowe wyszkolone na temat danych tekstowych wykorzystywanych w wyszukiwaniach internetowych i postach w mediach społecznościowych wykazują również stronniczość wobec osób niebędących osobami binarnymi.
Ponadto algorytmy AI uczą się poprzez wykrywanie wzorców w danych. Wykorzystują te modele do prognoz, ale jeśli dane zawierają stronnicze informacje, prognozy będą również stronnicze.
Na przykład, system AI zaprojektowany do analizy wniosków o pracę może dać kobietom niższe wyniki, ponieważ został przeszkolony na danych historycznych pokazujących, że mniej wykwalifikowanych kandydatów były głównie mężczyźni. To samo dotyczy innych dziedzin, takich jak zdrowie, finanse i edukacja.
Ponadto niektóre systemy sztucznej inteligencji mogą tworzyć nowe formy dyskryminacji ze względu na postrzeganą tożsamość płci.
Na przykład, wirtualny asystent zaprogramowany, aby dostarczyć rekomendacje dla randki witryn może dopasować użytkowników z potencjalnymi partnerami na podstawie ich ekspresji płci, a nie orientacji seksualnej. Wykluczyłoby to trans ludzi, którzy nie pasują do kategorii binarnych.
Istnieją jednak kroki, które możemy podjąć, aby zmniejszyć ryzyko wzrostu stronniczości społecznej w systemach grypy ptaków. Jednym z podejść jest zapewnienie, że dane wykorzystywane do szkolenia algorytmów AI odzwierciedlają różne perspektywy. Przedsiębiorstwa muszą współpracować z marginalizowanymi społecznościami, aby gromadzić dane bardziej integracyjne i odpowiednio dostosowywać swoje algorytmy. Muszą również przetestować swoje systemy AI przy użyciu technik takich jak walidacja krzyżowa i analiza błędów w celu zidentyfikowania niezamierzonych stronniczości.
Ponadto firmy powinny rozważyć stworzenie zabezpieczeń, takich jak procesy przeglądu przez ludzi lub zapewnienie użytkownikom możliwości skorygowania błędnej tożsamości płci.
Podsumowując, chociaż AI przekształciła wiele gałęzi przemysłu, jej zastosowanie w identyfikacji płci budzi obawy dotyczące utrwalania istniejących stronniczości społecznych. Dzięki zapewnieniu, że dane wykorzystywane do szkolenia algorytmów sztucznej inteligencji odzwierciedlają różne perspektywy, testują je pod kątem stronniczości i tworzą zabezpieczenia, przedsiębiorstwa mogą złagodzić ten problem i udostępniać wszystkim swoje produkty.
W jaki sposób systemy sztucznej inteligencji mogą zwiększać stronniczość społeczną przy klasyfikowaniu lub przewidywaniu tożsamości płci?
Systemy sztucznej inteligencji, które opierają się na danych ze źródeł ludzkich, mogą być przeszkolone w rozpoznawaniu specyficznych cech związanych z konkretną płcią, takich jak długość włosów lub ton głosu, które mogą utrwalać istniejące stereotypy i uprzedzenia wobec konkretnych płci. Ponadto, jeśli dane osobowe jednostki są wykorzystywane do szkolenia tych algorytmów, mogą one odzwierciedlać przestarzałe założenia dotyczące ról i tożsamości płci, co prowadzi do stronniczych prognoz lub klasyfikacji.