Logo

ZeroOpposite

Contact Us
Search

ODKRYWANIE, JAK BIAS ALGORYTMICZNY WPŁYWA NA GŁOSY QUEER: GŁĘBOKIE SPOJRZENIE NA STRONNICZOŚCI SPOŁECZNE I SCENARIUSZE REALNEGO ŚWIATA plEN IT FR DE TR PT RU AR JA CN ES

2 min read Queer

Algorytmy to programy komputerowe, które mogą przetwarzać dane w celu rozwiązywania problemów. Pracują nad matematycznymi formułami i logiką. Algorytmy są używane wszędzie - od wyszukiwarek do kanałów social media i online randki aplikacje.

W tym artykule badam, jak uprzedzenia algorytmiczne wpływają na ludzi queer i jak utrwalają nierówność. Podam również przykłady rzeczywistych scenariuszy, w których ludzie queer zostali dyskryminowani z powodu uprzedzeń algorytmicznych.

Wreszcie zaoferuję kilka rozwiązań w celu zmniejszenia uprzedzeń algorytmicznych.

Uprzedzenia algorytmiczne

Algorytmy są zaprojektowane przez osoby, które mogą nieświadomie wstrzykiwać własne stronniczości do kodu. Oznacza to, że algorytmy mogą odzwierciedlać normy społeczne i uprzedzenia, które często marginalizują głosy queer.

Na przykład internetowa strona handlowa może pokazywać mężczyznom i kobietom różne reklamy oparte na stereotypach płci na temat tego, co powinni kupować. Podobnie algorytm składania wniosków o pracę może sprzyjać bezpośrednim wnioskodawcom w stosunku do nieparzystych wnioskodawców, ponieważ przedsiębiorstwo uważa, że heteroseksualność jest bardziej rozpowszechniona w przemyśle.

Algorithmic Bias Examples

Jednym z ostatnich przykładów stronniczości algorytmicznej było to, gdy krzesiwo wprowadziło wyniki „Elo" w celu dopasowania do użytkowników. Wynik Elo powinien mierzyć zgodność między dwiema osobami.

Okazało się jednak, że algorytm faworyzował osoby białe, cisgender, heteronormatywne, mimo że te cechy nie były częścią kryteriów zgodności. W rezultacie wielu queer ludzi czuł się wyłączony z platformy i pozostawił go w całości. Innym przykładem jest technologia rozpoznawania twarzy, która okazała się błędnie identyfikować osoby trans i nie-binarne jako przypisaną im płeć po urodzeniu. Może to prowadzić do niebezpiecznych sytuacji, w których funkcjonariusze organów ścigania wykorzystują nieprawidłowe dane do aresztowania lub ścigania kogoś.

Algorithmic Bias Reduction Solutions

Aby zmniejszyć stronniczość algorytmiczną, firmy muszą być przejrzyste co do sposobu działania swoich algorytmów i zbierać różnorodne opinie od użytkowników. Muszą również zatrudniać deweloperów o różnych środowiskach i perspektywach, aby zapewnić, że wszystkie głosy są reprezentowane w procesie projektowania.

Wreszcie, muszą wdrożyć solidne kontrole jakości, aby sprawdzić stronniczość przed wydaniem nowych produktów lub aktualizacji.

Podsumowując, algorytmy mogą utrwalać stronniczość społeczną wobec queer people, odzwierciedlając normy i uprzedzenia. Przedsiębiorstwa muszą podjąć kroki w celu ograniczenia tej stronniczości poprzez przejrzystość swoich algorytmów i włączenie różnych perspektyw do rozwoju. Jeśli mamy stworzyć bardziej sprawiedliwe społeczeństwo, musimy zająć się algorytmicznymi uprzedzeniami.

Jak algorytmy odzwierciedlają stronniczości społeczne marginalizujące głosy queer?

Algorytmy w jeden sposób mogą odzwierciedlać stronniczość społeczną poprzez ich projektowanie i wdrażanie. Ponieważ algorytmy są tworzone przez ludzi, mogą one obejmować pewne wartości i przekonania, które są powszechne w społeczeństwie. Oznacza to, że częściej mają przewagę nad innymi, takimi jak heteronormatyczność czy cisgenderyzm.