Logo

ZeroOpposite

Contact Us
Search

SEKSUALNOŚĆ/SEKSUALIZACJA I AI: JAK ALGORYTMY MOGĄ PROWADZIĆ DO STRONNICZOŚCI WOBEC MNIEJSZOŚCI plEN IT FR DE TR PT RU AR JA CN ES

Algorytmy to programy komputerowe, które mogą wykonywać pewne zadania bez interwencji człowieka. Pracują poprzez analizę dużych ilości danych i znalezienie wzorców do podejmowania decyzji. Wzorce te mogą opierać się na trendach historycznych lub prawdopodobieństwach statystycznych. Algorytmy zostały wykorzystane do identyfikacji ryzyka kredytowego, przewidywania pogody, optymalizacji łańcuchów dostaw, polecania muzyki, wykrywania oszustw, a nawet diagnozowania chorób.

Jednak również utrwalają stronniczość społeczną i dyskryminują grupy mniejszościowe. Niniejszy dokument zbada, w jaki sposób algorytmy odtwarzają moralne stronniczości przeciwko niedopasowanym tożsamościom i badają sposoby przeciwdziałania tym stronniczościom.

Algorytmy w jeden sposób odtwarzają stronniczości moralne poprzez zastosowanie klasyfikatorów binarnych. Klasyfikatorzy binarni dzielą ludzi na kategorie takie jak mężczyzna/kobieta, czarny/biały, prosty/gej, abed/niepełnosprawny, itp. Następnie przypisują każdej kategorii zestaw cech, które mogą lub mogą nie być prawdziwe.

Na przykład algorytm przeznaczony do wykrywania przestępców może klasyfikować każdego z tatuażami jako przestępcę, niezależnie od ich rzeczywistego zachowania. Może to prowadzić do nieproporcjonalnego ukierunkowania niektórych grup, w tym tych, które nie są zgodne z tradycyjnymi rolami płci.

Innym sposobem, w jaki algorytmy odtwarzają uprzedzenia moralne, jest wykorzystanie uczenia maszynowego. Uczenie maszynowe obejmuje modele treningowe na szerokich zbiorach danych i pozwala im uczyć się na błędach z przeszłości.

Jeśli jednak zestaw danych jest niekompletny lub skewed w kierunku jednej grupy, model przyniesie niedokładne wyniki dla pozostałych grup. Na przykład technologia rozpoznawania twarzy często błędnie identyfikuje czarne kobiety, ponieważ była szkolona przede wszystkim na białych mężczyzn. Podobnie, zatrudnianie algorytmów może faworyzować kandydatów o nazwach rodzajowych, takich jak John Smith, nad kandydatami o bardziej etnicznie brzmiących nazwiskach.

Aby zwalczać te stronniczości, musimy zwiększyć różnorodność zbiorów danych używanych przez algorytmy. Musimy gromadzić i analizować dane z niedoreprezentowanych grup, w tym osób kolorowych, osób LGBTQ +, imigrantów, niepełnosprawnych i mniejszości religijnych. Musimy również trenować modele na różnych przykładach, aby rozpoznawały wszystkie rodzaje ludzkiego doświadczenia.

Ponadto musimy przetestować istniejące algorytmy pod kątem dokładności i uczciwości, zapewniając, że żadna grupa nie jest dyskryminowana.

Wreszcie, musimy pociągnąć firmy do odpowiedzialności, gdy ich produkty utrwalają szkodliwe stereotypy. Podejmując te kroki, możemy stworzyć bardziej sprawiedliwe społeczeństwo, w którym każdy ma równy dostęp do szans i zasobów.

W jaki sposób algorytmy odtwarzają błędy moralne w stosunku do niedopasowanych tożsamości?

Wykazano, że algorytmy powtarzają moralne uprzedzenia wobec niedopasowanych tożsamości ze względu na ich zależność od zbiorów danych, które często odzwierciedlają uprzedzenia programistów i norm społecznych. Na przykład, podczas programowania algorytmu dla oprogramowania do rozpoznawania twarzy, programiści zazwyczaj trenują system za pomocą obrazów z kultur zachodnich, gdzie białe twarze są reprezentowane częściej niż inne rasy.