Logo

ZeroOpposite

Contact Us
Search

W JAKI SPOSÓB ALGORYTMY WZMACNIAJĄ STRONNICZOŚĆ SPOŁECZNĄ, KTÓRA MARGINALIZUJE GŁOSY QUEER ONLINE? plEN IT FR DE TR PT RU AR JA CN ES

3 min read Queer

W jaki sposób algorytmy wzmacniają stronniczość społeczną, która marginalizuje głosy queer online?

Internet staje się coraz bardziej dostępny dla ludzi na całym świecie, co pozwala im łączyć się z innymi, którzy mają podobne zainteresowania i doświadczenia.

Jednak pomimo tego postępu niektóre grupy nadal napotykają na dyskryminację i uprzedzenia ze względu na swoją tożsamość. Osoby queer są jednymi z najciężej dotkniętych przez te stronniczości, ponieważ społeczeństwo często uważa je za aberracje. Walczą więc o znalezienie miejsc, gdzie mogą otwarcie wyrazić się bez osądzania i szyderstwa. Tutaj wchodzą w grę algorytmy; stwarzają możliwości połączenia, ale także utrwalają szkodliwe stereotypy i izolację. Algorytmy wzmacniają stronniczości społeczne, które marginalizują głosy queer online poprzez ukierunkowaną reklamę, filtrowanie algorytmiczne i spersonalizowane wyniki wyszukiwania.

Ukierunkowana reklama polega na wykorzystaniu danych użytkowników do dostarczania reklam dostosowanych do specyficznej demografii.

Na przykład, jeśli firma chce sprzedawać produkty związane z tożsamością płciową, może kierować się na użytkowników transseksualnych w oparciu o ich historię przeglądania i aktywność w mediach społecznościowych. Chociaż podejście to zwiększa częstotliwość przejść, wzmacnia również myśl, że niektóre grupy ludzi są mniej pożądane niż inne. Wysyła przesłanie, że bycie transseksualistą jest czymś szczególnym lub niszowym, a nie częścią codziennego życia, co przyczynia się do piętna i marginalizacji. To samo dotyczy randki aplikacje, które pasują do użytkowników w oparciu o orientację seksualną; podczas gdy platformy te oferują bezpieczne miejsca dla osób LGBTQ + do spotkania podobnie myślących partnerów, dodatkowo izolują heteroseksualnych ludzi, którzy mogą nie znać lub być pewni związków nieheteronormatywnych.

Filtrowanie algorytmiczne opiera się na technikach uczenia maszynowego, aby ukryć zawartość dla preferencji każdego użytkownika. Niestety, proces ten może wyeliminować różne perspektywy, jak zakładają algorytmy, które widzowie chcą zobaczyć w oparciu o wcześniejsze interakcje z podobnymi materiałami.

Na przykład algorytm może polecać filmy o wydawaniu opowieści tylko zwykłym widzom, ponieważ to wszystko, co oglądali w przeszłości. Osoby queer wtedy stają się niewidzialne podczas wyszukiwania takich tematów, jak zakłada algorytm, że już wiedzą o nich wszystko. Tworzy to cykl, w którym tylko cisgender, heteroseksualne narracje pozostają widoczne online, tłumiąc alternatywne głosy.

Spersonalizowane wyniki wyszukiwania działają podobnie, pokazując wyniki, które są najbardziej istotne dla indywidualnych interesów, a nie dając równe szanse dla różnych perspektyw. Jeśli ktoś szuka „lesbijskiej historii miłosnej", prawdopodobnie zobaczy artykuły zawierające białe lesbijki i cisgender kobiety, a nie różnorodne występy. Wykluczenie to wzmacnia pogląd, że dziwność jest dopuszczalna tylko wtedy, gdy spełnia oczekiwania społeczeństwa, ograniczając widoczność poza podstawowe ideały.

Podsumowując, algorytmy wzmacniają stronniczość społeczną, która marginalizuje głosy queer online poprzez ukierunkowaną reklamę, filtrowanie algorytmiczne i spersonalizowane wyniki wyszukiwania. Procesy te tworzą cykl, w którym widoczne są tylko pewne tożsamości, zwiększając piętno i dyskryminację tych, którzy nie pasują do tradycyjnych norm. Aby walczyć z tym problemem, przedsiębiorstwa muszą zapewnić integrację między platformami, oferując zasoby dostosowane do wszystkich potrzeb demograficznych i unikając zakładania tego, co chcą zobaczyć użytkownicy.

W jaki sposób algorytmy wzmacniają stronniczość społeczną, która marginalizuje głosy queer online?

Ludzie często zakładają, że technologia jest bezstronna, ale odzwierciedla ludzkie wartości i przekonania. Algorytm za platformami internetowymi, z którym współpracujemy, regularnie uczy się od wzorców zachowania i preferencji użytkowników w czasie. Na przykład, jeśli niektóre typy treści i style komunikacji są bardziej popularne wśród osób heteroseksualnych niż inne, to wzorce te będą odzwierciedlone w systemach rekomendacji stosowanych przez te platformy.