Platformy algorytmiczne i ekosystemy mediów społecznościowych stają się coraz bardziej integralną częścią codziennego życia, zwłaszcza dla młodszych pokoleń, które spędzają znaczne ilości czasu online. Te przestrzenie stwarzają możliwości komunikacji, wyrażania siebie, rozrywki, edukacji, a nawet zatrudnienia.
Przedstawiają one jednak również unikalne wyzwania, które nieproporcjonalnie wpływają na zmarginalizowane grupy, w tym na członków społeczności LGBTQ. Artykuł ten zbada, w jaki sposób platformy algorytmiczne i ekosystemy mediów społecznościowych tworzą nowe formy wykluczenia, nękania lub niewidzialności dla użytkowników LGBTQ oraz badają potencjalne rozwiązania poprzez projektowanie i etykę regulacyjną wspierające cyfrowe sfery publiczne sprzyjające włączeniu społecznemu.
Jednym ze sposobów, w jaki platformy te wykluczają lub marginalizują użytkowników LGBTQ, jest cenzura. Wiele krajów na całym świecie nadal kryminalizuje homoseksualizm, a firmy takie jak Meta, dawniej znane jako Facebook, były krytykowane za usuwanie kont lub postów związanych z problemami LGBTQ z ich platform. Ponadto algorytmy mogą wzmacniać istniejące stronniczości, preferując treści zgodne z heteronormatywnymi normami lub promując szkodliwe stereotypy.
Na przykład, algorytm TikTok został niedawno oskarżony o obniżenie jakości filmów z udziałem par tej samej płci lub osób nie-binarnych. Dzięki temu użytkownicy mogą zobaczyć mniej postów queer-dodatnich, co sprawia, że czują się odizolowani i niewidoczni wewnątrz platformy.
Inna forma wykluczenia może wystąpić poprzez ukierunkowane kampanie reklamowe na portalach społecznościowych, takich jak Instagram czy Twitter. Reklamy te często promują heteronormatywne relacje i struktury rodzinne, co oznacza, że tylko te opcje są ważne i pożądane. To sprawia, że użytkownicy LGBTQ czują się wykluczeni i niewidoczni, ponieważ nie pasują do wąskiej definicji tego, co oznacza być „normalnym".
Wreszcie nękanie i mowy nienawiści skierowane do użytkowników LGBTQ na platformach społecznościowych mogą być dewastujące. Obejmuje to obelgi, groźby i wykroczenia, które mogą prowadzić do urazu emocjonalnego, lęku, a nawet samookaleczenia. Platformy takie jak Twitter i Reddit wdrożyły strategie mające na celu zmniejszenie nienawiści do zachowania, ale stoją w obliczu krytyki za niespójne egzekwowanie przepisów i brak rozwiązania kwestii strukturalnych, które przyczyniają się do uprzedzeń.
Etyka projektowa stanowi potencjalne rozwiązania dla rozwoju integracyjnych cyfrowych przestrzeni publicznych. Podejście to podkreśla potrzebę rozważenia wpływu technologii na społeczeństwo i nadania priorytetu prawom i potrzebom marginalizowanych społeczności. Stosując zasady projektowania, takie jak dostępność, prywatność i bezpieczeństwo, firmy mogą tworzyć miejsca, w których każdy czuje się bezpieczny i widoczny.
Ponadto ramy regulacyjne mogą pociągać przedsiębiorstwa technologiczne do odpowiedzialności za propagowanie różnorodności, integracji i równości poprzez zachęcanie ich do rozwiązywania systemowych uprzedzeń i uprzedzeń.
Na przykład przepisy wymagające wyraźnej zgody na gromadzenie danych, zakazanie dyskryminacyjnych algorytmów i wprowadzenie środków zapobiegających molestowaniu pomogą wyrównać szanse dla użytkowników LGBTQ.
Podsumowując, platformy algorytmiczne i ekosystemy mediów społecznościowych stanowią unikalne wyzwania dla użytkowników LGBTQ, którzy mogą doświadczać wykluczenia, nękania lub niewidzialności z powodu cenzury, stereotypowania, ukierunkowanej reklamy i mowy nienawiści. Etyka projektowania i ramy regulacyjne stwarzają możliwości tworzenia bardziej integracyjnych cyfrowych przestrzeni publicznych, priorytetowo traktując bezpieczeństwo, dostępność i reprezentację. Ponieważ nadal w dużym stopniu polegamy na tych technologiach, ważne jest, abyśmy pracowali nad stworzeniem świata, w którym każdy ma możliwość pełnego i autentycznego uczestnictwa w Internecie.