Algorytmy są coraz częściej wykorzystywane do moderowania przestrzeni online, w tym platform społecznościowych i wyszukiwarek. Algorytmy te odgrywają ważną rolę w określaniu, jakie treści są postrzegane i udostępniane, ale mogą również wzmacniać stronniczość społeczną i dyskryminować marginalizowane grupy, takie jak społeczność LGBTQ +. Ten esej zbada, jak algorytmy przyczyniają się do marginalizacji queer głosy i doświadczenia online.
Postęp w technologii zrewolucjonizował komunikację, pozwalając ludziom ze wszystkich środowisk łączyć się ze sobą jak nigdy dotąd.
Jest jednak wada tego rozwoju, który polega na tym, że wiele mniejszości jest wciąż niedostatecznie reprezentowanych i wykluczonych z dyskursu głównego nurtu.
Na przykład członkowie społeczności queer od dawna zmagają się z piętnem i uprzedzeniami w społeczeństwie, co oznacza, że ich głosy są często wyciszane lub całkowicie ignorowane. Jednym ze sposobów manifestowania tego jest algorytmiczna stronniczość, w której programy komputerowe przeznaczone do filtrowania treści mogą nieumyślnie wykluczać dziwne perspektywy.
Istnieje kilka sposobów odtwarzania przez algorytmy stronniczości społecznej i dyskryminacji queer voices online. Po pierwsze, niektóre algorytmy opierają się na danych generowanych przez użytkownika, aby określić, które treści powinny być priorytetowo traktowane lub zalecane użytkownikom. Może to prowadzić do jednorodnego punktu widzenia dominującego w rozmowie, ponieważ ci, którzy nie określają się jako heteroseksualni, mogą być mniej narażeni na angażowanie się w niektóre tematy lub dzielenie się swoimi opiniami w internecie.
Dodatkowo, algorytmy mogą używać modeli uczenia maszynowego, które analizują istniejące wzorce mowy i zachowań, aby informować swoje decyzje o tym, którą treść promować. Może to prowadzić do utrzymywania się stereotypów i błędnych wyobrażeń o społeczności queer. Innym czynnikiem przyczyniającym się do tego problemu jest brak różnorodności wśród tych, którzy tworzą te algorytmy. Wiele firm technologicznych nie może zatrudnić wystarczająco dużo pracowników LGBTQ +, co oznacza, że nie wnoszą różnych perspektyw do procesu rozwoju algorytmu.
Wreszcie same platformy społecznościowe mogą aktywnie cenzurować głosy queer, usuwając posty lub zmniejszając ich widoczność. Może to wywołać efekt komory echo, gdzie prezentowana jest tylko jedna perspektywa, a inne są uciszone.
Podsumowując, uprzedzenia algorytmiczne przyczyniają się do marginalizacji głosów queer online. Ważne jest, aby firmy techniczne zajęły się tym, zatrudniając więcej osób LGBTQ + do swojej siły roboczej i upewniając się, że ich produkty są integracyjne.
Ponadto platformy mediów społecznościowych muszą ponosić odpowiedzialność za ich rolę w cenzurowaniu głosowań w kolejce. Dzięki temu możemy stworzyć sprawiedliwszą przestrzeń internetową, w której wszystkie głosy mogą być słyszane i szanowane w równym stopniu.
Jak algorytmy replikują stronniczość społeczną i dyskryminację queer voices online?
Algorytmiczne procesy decyzyjne, które rządzą wyszukiwarkami i platformami społecznościowymi, mogą prowadzić do zwiększenia heteronormatywnych głosów i marginalizacji głosów queer z powodu stronniczości wbudowanych w dane wykorzystywane do podejmowania takich decyzji.