Algorytmiczne tłumienie dziwnej zawartości erotycznej odtwarza ogólnoustrojową nierówność widoczności seksualnej między platformami, ponieważ wzmacnia dominujący dyskurs heteronormatywny, który marginalizuje i wyklucza tożsamości nieheteroseksualne. Poprzez usuwanie lub obniżanie zawartości, która odbiega od tej normy, platformy takie jak TikTok, Instagram, YouTube i Wentylatory tworzą środowisko, w którym wyrażenie queer jest ograniczone i kontrolowane. To milczy i ogranicza wygląd dziwnych osobowości, odmawiając im prawa do wyrażania się w pełni i otwarcie. Ludzie queer są już nieproporcjonalnie dotknięci piętnem społecznym i dyskryminacją, a tłumienie algorytmiczne dodatkowo nasila to poprzez ograniczenie ich dostępu do przestrzeni internetowych. Rezultatem jest nierówne szanse na widoczność seksualną, gdzie niektóre tożsamości są uprzywilejowane, podczas gdy inne są cenzurowane i wykluczone.
Tłumienie algorytmiczne wpływa również na interakcje dziwnych osób z technologią. To tworzy poczucie strachu i autocenzury, sprawiając, że czują, że muszą być zgodne z normami, aby być w ogóle widzianym. Może to prowadzić do poczucia izolacji i alienacji, dodatkowo przyczyniając się do niewidzialności społeczności queer.
Ponadto, tłumienie treści queer na platformach ogranicza zdolność tych grup do znalezienia wsparcia i potwierdzania relacji online. Może to mieć poważne konsekwencje dla zdrowia psychicznego i dobrego samopoczucia, ponieważ uniemożliwia ludziom znalezienie społeczności i związku. Konsekwencje tłumienia algorytmicznego wykraczają poza indywidualne doświadczenie. Wpływa na społeczeństwo jako całość, wzmacniając tradycyjne role i normy płci, które utrwalają nierówność. Ograniczając widoczność tożsamości nieheteronormatywnych, tracimy cenne perspektywy i spostrzeżenia, które mogą podważać dominujące narracje i promować integrację.
Również brak reprezentacji w mediach i kulturze oznacza, że młodzi ludzie mogą nie widzieć pozytywnych wizerunków ich tożsamości lub słyszeć historie, które potwierdzają ich własne doświadczenia.
Podsumowując, algorytmiczne tłumienie zawartości erotycznej queer replikuje ogólnoustrojową nierówność widoczności seksualnej między platformami. Marginalizuje grupy znajdujące się już w niekorzystnej sytuacji, ucisza ich głosy i wspiera kulturę strachu i wstydu. Platformy muszą przejąć odpowiedzialność za tę kwestię poprzez tworzenie polityk chroniących różne przejawy seksualności i umożliwiających użytkownikom dzielenie się treścią bez obawy przed cenzurą lub cenzurą. Tylko wtedy możemy stworzyć prawdziwie integracyjny i sprawiedliwy krajobraz cyfrowy, w którym każdy głos jest słyszany i doceniany w równym stopniu.
W jaki sposób algorytmiczne tłumienie treści erotycznych queer odtwarza systemową nierówność widoczności seksualnej między platformami?
Algorytmiczne tłumienie treści erotycznych queer replikuje systemowe nierówności widoczności seksualnej na platformach, ponieważ marginalizuje społeczności mniejszościowe, które już zmagają się z ograniczoną reprezentacją i akceptacją w społeczeństwie mainstreamowym. Poprzez cenzurowanie treści queer platformy te tworzą środowisko, w którym można wyrażać i promować jedynie heteronormatywne, patriarchalne wartości, wzmacniając dominujące normy kulturowe, które wykluczają tożsamość nietypową.