Digital Stigma Against Queer Identities
Internet stał się ważnym narzędziem pomagającym ludziom łączyć się z ludźmi o podobnych zainteresowaniach, doświadczeniach i doświadczeniach, w tym z społecznościami niedostatecznie reprezentowanymi, takimi jak społeczność LGBTQIA +.
Ta wolność pochodzi z własnym zestawem wyzwań. - zwłaszcza jeśli chodzi o suwerenność danych, prawa prywatności i zarządzanie algorytmiczne.
Cyfrowe piętno wokół tożsamości queer jest szczególnie szkodliwe dla zmarginalizowanych użytkowników, którzy już doświadczają dyskryminacji w ich codziennym życiu.
Osoby trans często stoją przed wysokim poziomem przemocy i nadużyć, które mogą być nasilone przez molestowanie online i cyberbullying. Powoduje to dodatkowy stres i niepokój, który może mieć poważne konsekwencje dla zdrowia psychicznego.
Użytkownicy Queer mogą doświadczać stygmatów cyfrowych poprzez ukierunkowaną reklamę, profilowanie w oparciu o orientację seksualną lub tożsamość płciową oraz ograniczanie dostępu do niektórych usług z powodu przestarzałych polityk. Wszystkie te czynniki przyczyniają się do braku integracji między wieloma platformami, tworząc poczucie izolacji i rozłączenia między członkami tych wspólnot.
Suwerenność danych i prawa prywatności
Jednym z głównych problemów wpływających na osoby queer online jest suwerenność danych. Firmy gromadzą ogromne ilości danych osobowych użytkowników, w tym orientację seksualną i tożsamość płciową, bez ich zgody. Informacje te mogą być następnie wykorzystywane do tworzenia profili, które mogą potencjalnie prowadzić do dyskryminacji, zwłaszcza jeśli zawarte są również informacje o lokalizacji użytkownika lub inne informacje demograficzne.
Spółki mogą sprzedawać lub udostępniać te dane osobom trzecim bez odpowiedniej ochrony prywatności.
Ponadto osoby queer mogą mieć do czynienia ze zwiększonym nadzorem ze strony agencji rządowych lub pracodawców, którzy monitorują swoją działalność online. Nie tylko narusza prawa do prywatności, ale może narazić ich na utratę pracy, bezdomności czy nawet fizycznego zagrożenia.
Zarządzanie algorytmiczne
Zarządzanie algorytmiczne odnosi się do sposobu projektowania i wdrażania algorytmów w celu budowania naszego doświadczenia internetowego. W niektórych przypadkach algorytmy te wzmacniają istniejące struktury mocy i stronniczości - na przykład, gdy wyniki wyszukiwania priorytetowo traktują zawartość heteronormatywną nad treścią LGBTQIA + -specyfikacji. Stwarza to środowisko, w którym coraz trudniej jest osobom queer znaleźć potrzebne im zasoby i wsparcie.
Algorytmiczne podejmowanie decyzji może utrwalać szkodliwe stereotypy poprzez rozpowszechnianie treści wzmacniających negatywne tropy o queer ludzi. Platforma mediów społecznościowych może zalecać artykuły o „niebezpieczeństwie" bycia transseksualistą lub promowania terapii konwersji. Takie wiadomości mogą jeszcze bardziej izolować marginalizowane społeczności i promować piętno.
Przyszłość projektowania
Projektowanie integracji oznacza tworzenie przestrzeni cyfrowych, które promują bezpieczeństwo, społeczność i wzmocnienie pozycji wszystkich użytkowników, w tym tych, którzy identyfikują się jako LGBTQIA +. Jednym ze sposobów na to jest zaawansowane funkcje dostępności, takie jak zamknięte uchwyty, alternatywne opisy tekstowe i opcje kontrastu kolorów. Innym podejściem jest opracowanie neutralnych pod względem płci interfejsów użytkownika, w tym tożsamości niejednoznacznych.
Platformy powinny ponosić odpowiedzialność za swoje praktyki gromadzenia danych, z jasnymi zasadami dotyczącymi sposobu wykorzystywania i udostępniania danych osobowych. Firmy muszą również upewnić się, że ich algorytmy nie wzmacniają szkodliwych narracji o tożsamościach queer. Wykonując te kroki, możemy stworzyć bardziej sprawiedliwy świat cyfrowy, który wspiera wszystkich użytkowników.
W jaki sposób cyfrowe piętno o tożsamości queer krzyżuje się z suwerennością danych, prawami prywatności i algorytmicznym zarządzaniem i jaka przyszłość projektowania może zmniejszyć szkody dla zmarginalizowanych użytkowników?
Cyfrowe piętno wokół identyfikatorów queer może mieć znaczący wpływ na suwerenność danych, prawa prywatności i zarządzanie algorytmiczne. Kiedy ludzie z marginalizowanych społeczności, takich jak LGBTQ +, są online, mogą napotkać dyskryminację lub nękanie, które może prowadzić do ograniczenia ich działalności cyfrowej lub powstrzymać się od wymiany pewnych informacji.