Algorytmiczne tłumienie erotycznej zawartości queer jest zjawiskiem obecnym w przestrzeni cyfrowej od jakiegoś czasu. Odnosi się do procesu, w którym algorytmy stosowane przez platformy mediów społecznościowych, wyszukiwarki i inne usługi internetowe mają na celu identyfikację i usunięcie treści uważanych za wyraźne lub obraźliwe. Może to obejmować obrazy, filmy i teksty związane z seksualnością, tożsamością płciową i intymnymi relacjami między ludźmi, które nie pasują do tradycyjnych norm tego, co stanowi „normalny" związek. Chociaż praktyka ta może wydawać się pozytywnym rozwojem etycznym, w rzeczywistości wzmacnia nierówności systemowe w widoczności. Ograniczając dostęp do tego typu treści, tłumienie algorytmiczne sprzyja marginalizacji niektórych grup ludzi i utrwala istniejące struktury władzy w społeczeństwie. W tym artykule, Badam jak algorytmiczne tłumienie erotycznej zawartości queer replikuje systemowe nierówności w widoczności. Po pierwsze, przyjrzyjmy się, dlaczego najpierw występuje tłumienie algorytmiczne. Platformy społecznościowe i wyszukiwarki stają się coraz bardziej wyrafinowane w identyfikacji i usuwaniu szkodliwych treści, takich jak mowa nienawiści, pornografia i brutalne obrazy. Ma to na celu ochronę użytkowników przed potencjalnie traumatycznymi doświadczeniami podczas korzystania z ich usług.
Istnieje jednak również obawa, że firmy te mogą cenzurować zbyt wiele treści, zwłaszcza jeśli chodzi o materiał seksualny. W rezultacie mogą one nieumyślnie uciszyć marginalne głosy i stworzyć nierówne pole gry dla różnych rodzajów wyrażenia.
Na przykład heteroseksualne pary mogą czuć się wygodniej zamieszczając zdjęcia z siebie całujących się na Instagramie niż pary tej samej płci, robiąc to z obawy przed odwetem. Podobnie, to może być trudne dla osób transseksualnych, aby umieścić swoje obrazy na randki aplikacje bez znaku usuwania ze względu na to, jak ich ciała są postrzegane przez algorytmy. Po drugie, musimy rozważyć, w jaki sposób tłumienie algorytmiczne może przyczynić się do nierówności systemowych w widoczności. Ograniczając niektóre rodzaje treści, platformy priorytetowo traktują główny nurt narracji i utrwalają dominujący dyskurs na temat płci i seksualności. Oznacza to, że ci, którzy nie pasują do tych kategorii regulacyjnych są mniej prawdopodobne, aby ich głosy słyszane lub ich historie opowiadane. Ma to poważne konsekwencje dla równości i reprezentacji, ponieważ ogranicza zdolność ludzi do łączenia się z innymi, którzy mają podobne interesy lub doświadczenia. Może również wzmocnić negatywne stereotypy dotyczące niektórych grup, dodatkowo utrwalając istniejące uprzedzenia i uprzedzenia.
Wreszcie chcę zbadać potencjalne rozwiązania tego problemu. Jedną z możliwości dla platform jest inwestowanie w lepsze szkolenia i zasoby dla moderatorów, których zadaniem jest weryfikacja treści generowanych przez użytkowników. Osoby te mogą otrzymać dodatkowe narzędzia i wskazówki, aby pomóc im zidentyfikować szkodliwe lub obraźliwe treści, pozostawiając jednocześnie miejsce na różnorodne pokazy intymności i erotyzmu.
Ponadto firmy muszą być bardziej odpowiedzialne za to, w jaki sposób realizują swoją politykę treści seksualnych. Powinny one być przejrzyste co do tego, jaki rodzaj treści jest dozwolony i dlaczego jest on uważany za dopuszczalny lub niedopuszczalny, a także zapewnić jasne możliwości odwołania się, gdy użytkownicy uważają, że ich stanowiska zostały nieuczciwie usunięte.
Podsumowując, algorytmiczne tłumienie erotycznej zawartości queer odtwarza systemowe nierówności w widoczności poprzez ograniczenie dostępu do różnych form wyrażania. Tworzy nierówne pola gry, gdzie słychać tylko kilka głosów i wzmacnia dominujące struktury władzy w społeczeństwie. Aby temu zaradzić, platformy muszą inwestować w lepsze szkolenia i przejrzystość, zapewniając jednocześnie rzetelną reprezentację wszelkiego rodzaju intymnych relacji w swoich usługach. Tylko wtedy możemy stworzyć prawdziwie integracyjne miejsca online, gdzie wszyscy czują się widziani i doceniani.
Jak algorytmiczne tłumienie erotycznej zawartości queer odtwarza ogólnoustrojowe nierówności w widoczności?
W erze cyfrowej, coraz częściej polegamy na algorytmach, aby ukryć nasze doświadczenie online. Algorytmy te zostały pokazane, aby faworyzować zawartość głównego nurtu nad interesami niszowymi, w tym erotyczną treścią queer. Brak widoczności tego rodzaju treści może prowadzić do poczucia izolacji i alienacji wśród członków społeczności LGBTQ +, którzy mogą już doświadczyć dyskryminacji i marginalizacji w swoim codziennym życiu.