Internet jest chwalony za zdolność do łączenia ludzi z całego świata i tworzenia środowiska, w którym każdy może mieć głos.
Jednak nie zawsze tak jest. Algorytmy, które rządzą internetem, mają tendencję do replikowania stronniczości społecznej przeciwko głosom queer, ograniczając ich widoczność i utrudniając ich słuchanie. W tym artykule przyglądamy się, jak algorytmy utrwalają te stronniczości i co można z tym zrobić.
Najpierw zdefiniujmy termin „queer". Queer odnosi się do każdego, kto nie identyfikuje się jako heteroseksualista lub cisgender. Obejmuje to między innymi osoby lesbijskie, gejowskie, biseksualne, transseksualne, niepohamowane, interseksualne i bezpłciowe. Obejmuje również osoby, które identyfikują się jako panseksualne, poliamoryczne, perwersyjne i cokolwiek poza tradycyjnymi normami. Grupy te codziennie doświadczają dyskryminacji i molestowania, w tym online.
Algorytmy działają poprzez skanowanie tekstu i analizowanie wzorów. Są one zaprojektowane, aby zapewnić użytkownikom odpowiednie wyniki w oparciu o to, czego szukają.
Jeśli jednak algorytm jest wyszkolony na danych, które nadają priorytet prostym, białym, męskim perspektywom, nie rozpoznaje dziwnych głosów.
Na przykład, jeśli użytkownik szuka „porad relacji", algorytm może pokazać artykuły napisane przez mężczyzn o randki kobiety, ponieważ są to najczęściej używane artykuły. Wyklucza to dziwne głosy, które mogą prowadzić do dezinformacji i dalszej izolacji.
Innym sposobem, w jaki algorytmy wzmacniają stronniczość społeczną, jest ukierunkowana reklama. Firmy wykorzystują algorytmy do analizy historii przeglądania i zachowania użytkowników, aby pokazać reklamy dostosowane do ich zainteresowań. Jeśli algorytm identyfikuje kogoś jako hetero, może pokazać reklamy sukienek ślubnych lub produktów dla dzieci. Odwrotnie, jeśli algorytm identyfikuje kogoś jako queer, może pokazać im reklamy dla wydarzeń LGBTQ + lub randki Miejsca. To tworzy fałszywe poczucie normalności wokół heteronormatyczności, co utrudnia ludziom queer do łączenia się ze sobą.
Wreszcie algorytmy mogą promować szkodliwe stereotypy o dziwnych ludziach. Wyszukiwarki mogą oferować artykuły, które utrwalają negatywne stereotypy dotyczące osób transseksualnych, takie jak transseksualne dzieci mylące się ze swoją tożsamością płciową lub osoby trans są z natury niebezpieczne. Popiera to myśl, że bycie pedałem nie jest normalne i należy go unikać.
Jak to naprawić? Jednym z rozwiązań jest dywersyfikacja danych wykorzystywanych do szkolenia algorytmów. Firmy takie jak Google podjęły kroki w tym kierunku, w tym wyświetlania bardziej zróżnicowanych obrazów w wynikach wyszukiwania i tagowania, aby zidentyfikować zawartość LGBTQ +.
Jednak to samo nie rozwiąże problemu. Głosy queer muszą być aktywnie wyszukiwane i włączane do przestrzeni online. Oznacza to tworzenie platform specyficznych dla queer, w których mogą swobodnie dzielić się swoimi poglądami bez obawy przed cenzurą lub dyskryminacją. Oznacza to również zachęcanie sojuszników do wzmacniania dziwnych głosów w mediach społecznościowych i gdzie indziej.
Podsumowując, algorytmy nie są neutralne; odzwierciedlają stronniczość społeczeństwa, zarówno świadomego, jak i nieprzytomnego. Uznając to, możemy podjąć działania, aby Internet był bezpieczniejszą przestrzenią dla wszystkich ludzi, niezależnie od ich seksualności lub tożsamości płciowej. Pracujmy razem, aby stworzyć świat, w którym każdy ma głos, który jest słyszany i szanowany.
Jak algorytmy odtwarzają stronniczości społeczne przeciwko głosom queer online?
Algorytmy mogą wzmacniać stronniczość społeczną przeciwko głosom queer na platformach internetowych, ponieważ są one często szkolone na danych, które odzwierciedlają heteronormatywne perspektywy i normy. Oznacza to, że algorytmy mogą być trudne do rozpoznania i sklasyfikowania treści jako queer, co może spowodować jej zaniechanie lub niedostateczne przedstawienie.