Uprzedzenie algorytmiczne jest terminem używanym do opisu tendencji algorytmów lub zestawów instrukcji, które służą do podejmowania decyzji opartych na danych wejściowych w celu uzyskania wyników, które niesprawiedliwie sprzyjają niektórym grupom ludzi nad innymi. Może się to zdarzyć w wielu kontekstach, w tym w mediach społecznościowych, takich jak Facebook i Twitter.
Na przykład, jeśli algorytm jest przeznaczony do polecania postów w oparciu o aktywność użytkownika, może to skończyć się polecając posty od prostych, cisgender mężczyzn częściej niż kobiet lub osób LGBT. To może stworzyć pętlę sprzężenia zwrotnego, w której użytkownicy widzą mniej postów z tych zmarginalizowanych grup, co powoduje jeszcze mniej interakcji z nimi, co wzmacnia stronniczość algorytmu.
Jednak jeśli chodzi o randki aplikacje, ten problem staje się znacznie bardziej podstępny. randki Aplikacje polegają w dużej mierze na algorytmach dopasować użytkowników w oparciu o ich preferencje, ale także zbierają wiele danych osobowych o użytkownikach. Dane te mogą obejmować takie rzeczy jak wiek, płeć, orientacja seksualna, lokalizacja, a nawet afiliacja polityczna. Korzystając z tych danych, aplikacja może spróbować przewidzieć, które mecze będą interesujące dla użytkowników.
Jeśli jednak aplikacja jest stronnicza wobec osób LGBT, może pokazać im mniej potencjalnych partnerów, którzy podzielają swoją seksualność, co może ograniczyć ich opcje i prowadzić do frustracji.
Problem wykracza poza poznawanie aplikacji, w rzeczywistości stwierdzono, że algorytmiczna stronniczość przenika wiele aspektów codziennego życia, od systemów wyszukiwania pracy po wyniki kredytowe. I chociaż niektóre z tych stronniczości mogą wydawać się łagodne, mogą mieć poważne konsekwencje dla użytkowników LGBTQ.
Na przykład algorytm, który sprzyja bezpośrednim użytkownikom w systemie wyszukiwania pracy, może utrudniać osobom LGBT znalezienie możliwości zatrudnienia. Podobnie algorytm dyskryminujący osoby trans w określaniu zdolności kredytowej może utrudnić im uzyskanie pożyczek lub innych form pomocy finansowej.
Jednym ze sposobów zwalczania uprzedzeń algorytmicznych jest szkolenie samych algorytmów. Systemy uczenia maszynowego mogą być szkolone do rozpoznawania wzorców i podejmowania decyzji w oparciu o te wzory, więc deweloperzy mogą tworzyć programy, które są zaprojektowane w celu zminimalizowania stronniczości. Inną opcją jest zapewnienie, że dane wykorzystywane do kontroli tych algorytmów są zróżnicowane i reprezentatywne dla wszystkich grup ludzi.
Wreszcie użytkownicy mogą mówić, gdy widzą przypadki uprzedzeń algorytmicznych i zgłaszają je odpowiedzialnym firmom. Współpracując, możemy stworzyć bardziej sprawiedliwe środowisko internetowe dla wszystkich.
W jaki sposób uprzedzenia algorytmiczne replikują dyskryminację użytkowników LGBT w trybie offline?
Uprzedzenia algorytmiczne odnoszą się do procesu, w którym algorytmy komputerowe są zaprogramowane do podejmowania decyzji, które mogą być stronnicze wobec niektórych grup ludzi w oparciu o ich rasę, płeć, orientację seksualną, wiek, niepełnosprawność, lub inne czynniki. W kontekście aplikacji randkowych online oznacza to, że algorytm aplikacji prawdopodobnie pokaże użytkownikom LGBT mniej potencjalnych dopasowań niż użytkownicy spoza LGBT, nawet jeśli mają podobne preferencje i zainteresowania.