AI może być używany do automatyzacji zadań wymagających przetwarzania języka naturalnego (NLP), takich jak chatbots do obsługi klientów. Czatboty te są często szkolone przy użyciu zbiorów danych zawierających ogromne ilości danych z różnych źródeł, w tym postów w mediach społecznościowych i forów internetowych, na których ludzie dyskutują o swoich doświadczeniach dotyczących tożsamości płci. Kiedy tak się stanie, AI może nieumyślnie replikować błędne pojęcia lub nawet szkodliwe stereotypy o trans ludzi. Dzieje się tak dlatego, że algorytmy napędzające te systemy opierają się na wzorcach znajdujących się w danych treningowych, i w końcu mogą wzmacniać te stronniczości, nie zdając sobie z tego sprawy.
Na przykład, jeśli zestaw danych zawiera negatywne komentarze na temat wyglądu osób trans, może to prowadzić do chatbot making derogacyjne uwagi podczas komunikowania się z nimi. Podobnie, jeśli zestaw danych zawiera przestarzały język lub założenia dotyczące ról płci, chatbot może wyciągnąć błędne wnioski lub wyroki oparte na tych stronniczościach. Innym sposobem na utrwalenie nieporozumień związanych z tożsamością płciową jest rozpoznawanie wizualne. Wiadomo, że oprogramowanie do rozpoznawania twarzy zmaga się z niejednoznaczną identyfikacją twarzy z powodu braku kompleksowych danych szkoleniowych dotyczących ekspresji płci poza binarnymi wariantami męskimi/żeńskimi. Może to prowadzić do wyjątkowych praktyk, takich jak zmuszanie ludzi do używania ich imion prawnych zamiast preferowanych zaimków, co może unieważnić ich tożsamość. Ponadto technologia rozpoznawania twarzy jest powszechnie stosowana w środkach bezpieczeństwa, takich jak kontrola lotniska, co może prowadzić do dyskryminacji osób, które nie są zgodne z tradycyjnymi pojęciami męskości lub kobiecości. Problem wykracza poza systemy AI. W niektórych przypadkach sami deweloperzy AI mogą mieć nieprzytomne nastawienie do niektórych płci, co prowadzi ich do rozwoju produktów, które wzmacniają istniejącą dynamikę energetyczną w społeczeństwie. To tylko kilka przykładów tego, jak AI może nieumyślnie przyczynić się do seksizmu i cisnormatyczności. Aby walczyć z tym problemem, ważne jest, aby przedsiębiorstwa opracowujące narzędzia sztucznej inteligencji były świadome ich potencjalnego wpływu na zmarginalizowane grupy oraz aby zapewnić, że wszystkie głosy będą słyszane podczas procesu rozwoju. Deweloperzy muszą również ściśle współpracować z ekspertami z niedostatecznie reprezentowanych społeczności, którzy mogą zapewnić wgląd w wszelkie istotne kwestie, które należy rozwiązać przed wprowadzeniem nowych produktów.
Ogólnie rzecz biorąc, chociaż AI stwarza wiele możliwości innowacji, musimy zachować czujność w zapobieganiu wzmacnianiu szkodliwych stereotypów związanych z tożsamością płciową.
Jak AI może nieumyślnie replikować stronniczości lub nieporozumienia dotyczące tożsamości płci?
Wykorzystanie sztucznej inteligencji (AI) może potencjalnie prowadzić do utrwalenia uprzedzeń i błędnych koncepcji dotyczących tożsamości płci, ze względu na wpływ danych wykorzystywanych do jej szkolenia. Dane te mogą odzwierciedlać stronniczość tożsamości płci, co może spowodować, że system sztucznej inteligencji powtórzy te uprzedzenia w procesie decyzyjnym.