Technologie sztucznej inteligencji są coraz częściej wykorzystywane do interpretacji i klasyfikacji tożsamości płci, ale mogą podlegać stronniczości społecznej, która może prowadzić do nieprawidłowych lub szkodliwych skutków. Oto jak to się dzieje:
1) Zbiory danych używane do szkolenia algorytmów AI mogą zawierać stronniczość ze względu na stosunek historyczny do niektórych płci lub orientację seksualną.
Na przykład, jeśli zestaw danych zawiera obrazy kobiet zaangażowanych w tradycyjne zajęcia kobiece, takie jak gotowanie i czyszczenie, może on przytoczyć algorytm AI, aby powiązać te zadania z tożsamością płci żeńskiej.
2) Na algorytmy analizujące wzorce mowy i cechy wokalne w celu określenia tożsamości płciowej mogą również wpływać stereotypy kulturowe dotyczące brzmienia mężczyzn i kobiet. Może to prowadzić do błędnej identyfikacji lub dyskryminacji osób niebędących osobami binarnymi, które nie odpowiadają tym stereotypom.
3) Oprogramowanie do rozpoznawania twarzy to kolejny obszar, w którym może pojawić się stronniczość płci, zwłaszcza jeśli chodzi o rozpoznawanie neutralnych dla płci rysów twarzy lub osób transseksualnych, których wygląd nie pasuje do przypisanej im płci w momencie urodzenia.
4) Oprócz płci, algorytmy AI mogą również utrwalać inne formy nierówności w oparciu o rasę, wiek, status niepełnosprawności i pochodzenie społeczno-ekonomiczne.
Na przykład algorytm mający na celu wykrycie emocji w nagraniach z inwigilacji może fałszywie oznaczać czarnych jako agresywnych lub przestępczych częściej niż białych.
5)
Wreszcie systemy AI są rozwijane przez ludzi, którzy sami przestrzegają stronniczości, co może wpływać na sposób programowania swoich technologii. Uprzedzenia w rozwoju sztucznej inteligencji są związane z niedostatecznym reprezentowaniem kobiet i mniejszości w przemyśle technologicznym.
Aby rozwiązać te problemy, naukowcy muszą pracować nad stworzeniem bardziej zróżnicowanych zbiorów danych i szkoleniem algorytmów sztucznej inteligencji, aby rozpoznać nieodpowiednie wyrażenia płci. Przedsiębiorstwa muszą również kontrolować swoje systemy sztucznej inteligencji w celu zapewnienia stronniczości oraz wdrożyć środki ochronne w celu zapobiegania dyskryminacji.
Ostatecznie społeczeństwo musi kwestionować przestarzałe postawy dotyczące płci i seksualności, tak aby każdy czuł się postrzegany i szanowany w naszym coraz bardziej cyfrowym świecie.
W jaki sposób technologie sztucznej inteligencji mogą odtwarzać stronniczość społeczną podczas interpretacji lub kategoryzacji tożsamości płci?
Sztuczna Inteligencja (AI) jest szkolona na dużych ilościach danych, które odzwierciedlają ludzkie wzorce zachowania i uprzedzenia. Dlatego też systemy AI mogą kopiować stronniczości obecne w materiałach źródłowych wykorzystywanych do ich szkolenia, w tym tych związanych z tożsamością płciową.