Czy system algorytmiczny może wzmacniać lub tłumić głosy queer? To pytanie jest omawiane od lat w kręgach informatyki, ale wciąż nie ma jednoznacznej odpowiedzi. Z jednej strony wydaje się, że algorytmy mogą pomóc zidentyfikować i przyspieszyć zmarginalizowane społeczności, takie jak społeczność LGBTQ +. Z drugiej strony mogą one również wzmocnić istniejące stronniczości i nasilić dyskryminację tych grup.
Algorytmy to matematyczne wzory przeznaczone do rozwiązywania problemów. Biorą dane i produkują wyniki w oparciu o te dane wejściowe. W ostatnich latach stają się one coraz ważniejsze w takich dziedzinach jak finanse, zdrowie, edukacja i polityka. Ale jeśli chodzi o wzmacnianie lub tłumienie głosów queer, ich rola staje się bardziej skomplikowana.
Jednym ze sposobów wzmacniania głosów queer są systemy rekomendacji. Systemy te oferują artykuły, filmy lub inne nośniki, które użytkownicy mogą znaleźć ciekawe. Jeśli zauważą wzorce w tym, co ludzie czytają lub oglądają, mogą dostosować zalecenia do tych zainteresowań. Może to obejmować treści zorientowane na zapytanie, które w przeciwnym razie mogą być trudne do znalezienia.
Jednak te algorytmy nie zawsze działają zgodnie z przeznaczeniem. Na przykład, niektóre badania wykazały, że rekomendatorzy mogą wyłączyć treści z niektórych autorów, jeśli używają określonego języka. Inni mogą prowadzić reklamy skierowane do cisgender mężczyzn, co utrudnia transseksualistom znaleźć istotne informacje. Co więcej, systemy te mogą utrwalać stereotypy dotyczące płci i seksualności. Mogą zakładać, że każdy chce zobaczyć tradycyjne pojęcia romantycznych relacji między mężczyzną a kobietą, które ograniczają pojawienie się tożsamości nietypowych. Podobnie, mogą zakładać, że wszystkie kobiety chcą zobaczyć samouczki makijażu, ignorując różnorodne standardy piękna.
Aby rozwiązać ten problem, firmy zaczęły rozwijać bardziej integracyjne algorytmy. Niektóre platformy biorą teraz pod uwagę czynniki takie jak rasa, pochodzenie etniczne i niepełnosprawność podczas tworzenia oferty treści. Inne pozwalają użytkownikom dostosować swoje preferencje, określając kategorie identyfikatorów.
Jednak nadal jest dużo miejsca na poprawę. Algorytmy odgrywają również ważną rolę w nękaniu dziwnych ludzi w internecie. Retoryka nienawiści, doksoksykacja (publiczna wymiana danych osobowych) i inne formy nadużyć stały się powszechne w mediach społecznościowych. Platformy te często polegają na algorytmach uczenia maszynowego w celu zaznaczania potencjalnie ofensywnych postów. Czasami jednak nie rozpoznają szkodliwych słów i czynów.
Ponadto systemy algorytmiczne mogą pośrednio przyczyniać się do dyskryminacji społeczności LGBTQ +.
Na przykład witryny rekrutacyjne często używają słów kluczowych, aby dopasować kandydatów do otwartych stanowisk. Jeśli te słowa kluczowe wykluczają terminy związane z tożsamościami niejednoznacznymi lub poliamorowymi, może to prowadzić do stronniczości.
Ogólnie rzecz biorąc, systemy algorytmiczne nie mogą być całkowicie neutralne pod względem wzmacniania lub tłumienia głosów queer. Chociaż mają one potencjał wspierania różnorodności, muszą być starannie zaprojektowane i przetestowane, aby zapobiec niezamierzonym konsekwencjom. Deweloperzy i decydenci polityczni muszą zapewnić, aby narzędzia te były wykorzystywane w sposób odpowiedzialny i sprawiedliwy.
Czy systemy algorytmiczne mogą być kiedykolwiek neutralne przy wzmacnianiu lub tłumieniu głosów queer?
Wzrost głosów queer jest od lat problemem, w którym ludzie często stoją w obliczu dyskryminacji, uprzedzeń i wykluczenia z głównego nurtu społeczeństwa. Chociaż technologia może wydawać się obiecującym rozwiązaniem tego problemu, istnieje powód, by sądzić, że nie może tego zrobić całkowicie neutralnie. Systemy algorytmiczne są projektowane przez ludzi o własnych stronniczościach i przekonaniach, które mogą kształtować sposób interpretowania danych i podejmowania decyzji.