Tożsamość płci i ekspresja są złożone tematy, które często obejmują niuanse i subiektywne interpretacje. Chociaż wiele osób może czuć się komfortowo swobodnie wyrażając się, inni mogą walczyć z powodu nacisków publicznych lub osobistych ograniczeń. Sztuczna inteligencja (AI) może zrewolucjonizować sposób, w jaki ludzie identyfikują i wyrażają swoją płeć, ale ma również własny zestaw wyzwań i ograniczeń. W tym artykule analizujemy niektóre z tych zagadnień i dyskutujemy o sposobach, w jaki technologie sztucznej inteligencji mogą nieumyślnie zwiększać stronniczość i nieporozumienia dotyczące tożsamości i ekspresji płci.
Jednym z problemów jest to, że algorytmy AI są szkolone przy użyciu dużych ilości danych, w tym obrazów, tekstu i nagrań audio. Dane te mogą zawierać domyślne uprzedzenia lub stereotypy dotyczące tożsamości i ekspresji płci, co prowadzi do błędów w interpretacji.
Na przykład algorytm przeznaczony do rozpoznawania twarzy może walczyć o dokładną klasyfikację osób trans na podstawie samych rysów twarzy, ponieważ nie pasują one do tradycyjnych kategorii męskich/żeńskich. Podobnie, oprogramowanie do rozpoznawania mowy może błędnie klasyfikować głosy nie-binarne jako męskie lub żeńskie, utrwalając myśl, że istnieją tylko dwie płci.
Kolejnym problemem jest to, że systemy AI mogą wzmacniać stereotypy płci poprzez interpretację języka w sposób binarny.
Na przykład chatbot przeznaczony do odpowiedzi na pytania dotyczące wyborów mody może nieprawidłowo klasyfikować niektóre elementy odzieży jako należące wyłącznie do danej płci, ograniczając tym samym możliwości użytkowników. Ponadto mechanizmy rekomendacji oparte na sztucznej inteligencji mogą zalecać produkty lub usługi oparte na przestarzałych pojęciach ról płci, takich jak oferowanie wyłącznie tradycyjnie męskiego sprzętu sportowego dla chłopców lub kosmetyków dla dziewcząt.
Dodatkowo, Systemy AI mogą nieumyślnie promować sztywne normy płci poprzez ich interakcje z ludźmi.
Na przykład, wirtualni asystenci mogą używać naznaczonych terminów, takich jak „on" lub „ona", nawet przy adresowaniu osób, które utożsamiają się z żadnym lub obydwoma. Podobnie, urządzenia domowe sterowane głosem mogą wymagać od użytkowników wyboru pomiędzy głosami kobiet i mężczyzn, co może być wyjątkowe dla tych, którzy nie są zgodni z tymi opcjami binarnymi.
Podsumowując, chociaż AI może upoważnić ludzi do autentycznego wyrażania się, niesie również ryzyko nieumyślnego wzmocnienia stronniczości i nieporozumień dotyczących tożsamości płci i ekspresji. Aby złagodzić te zagrożenia, deweloperzy muszą pracować nad tym, aby ich algorytmy były szkolone przy użyciu różnych zbiorów danych i nie miały domyślnych uprzedzeń. Muszą również rozważyć, w jaki sposób ich technologia oddziałuje z użytkownikami i starać się tworzyć doświadczenia sprzyjające włączeniu społecznemu, szanujące wszystkie tożsamości.
W jaki sposób technologie sztucznej inteligencji mogą nieumyślnie zwiększać uprzedzenia lub nieporozumienia dotyczące tożsamości i ekspresji płci?
Technologie AI mogą nieumyślnie wzmacniać stronniczość, analizując dane, które nie są reprezentatywne dla wszystkich płci, ras, przynależności etnicznej i kultur. Może to prowadzić do niedokładnych wyników w przypadku identyfikacji niektórych cech lub cech. Ponadto algorytmy AI mogą uczyć się z uprzedzeń i uprzedzeń człowieka, które mogą utrwalać istniejące stereotypy i błędne pojęcia.