W dzisiejszym erze cyfrowej platformy społecznościowe stały się integralną częścią naszego życia, umożliwiając użytkownikom łączenie i dzielenie się swoimi myślami, doświadczeniami i opiniami z innymi na całym świecie.
Jednak platformy te są również napędzane przez złożone algorytmy, które decydują o tym, jaka zawartość jest oglądana i przez kogo. Algorytmy te mogą być zaprojektowane w sposób priorytetowy dla niektórych rodzajów treści, takich jak te, które generują większe zaangażowanie lub przyczyniają się do zwiększenia przychodów z reklam, ale mogą również wzmocnić istniejące stronniczości społeczne. Budzi to obawy, jak systemy algorytmiczne mogą wpływać na głosy LGBTQ, zwłaszcza biorąc pod uwagę historyczną marginalizację queer ludzi w społeczeństwie.
Jednym z obszarów, w których jest to szczególnie istotne, jest reprezentacja tożsamości i perspektyw LGBTQ w mediach społecznościowych. Historycznie, główny nurt mediów został zdominowany przez heteronormatywne narracje, które przedstawiają cisgender, białe, zdolne, neurotypowe jednostki jako normę. Algorytmy, które priorytetowo traktują treści w oparciu o popularność lub zaangażowanie, mogą wzmocnić tę stronniczość, ograniczając widoczność dla grup niedostatecznie reprezentowanych, takich jak osoby LGBTQ. Może to prowadzić do usunięcia z dyskursu publicznego ważnych historii, perspektyw i doświadczeń, co dodatkowo pogorszy marginalizację tych społeczności.
Aby temu zaradzić, platformy mediów społecznościowych muszą aktywnie pracować nad włączaniem różnorodnych głosów do swoich procesów projektowania algorytmicznego. Obejmuje to zatrudnianie różnorodnego zespołu inżynierów, programistów i naukowców zajmujących się danymi, którzy mogą zapewnić integracyjne perspektywy reprezentowane w rozwoju algorytmu. Oznacza to również tworzenie algorytmów, które priorytetowo traktują grupy niedostatecznie reprezentowane, takie jak te, które identyfikują się jako trans lub nonbinary.
Ponadto platformy powinny oferować użytkownikom narzędzia i zasoby do dostosowywania swoich kanałów i odkrywania treści poza ich bezpośrednimi sieciami społecznościowymi.
Podczas gdy systemy algorytmiczne mogą promować większą różnorodność i zaangażowanie, są również zdolne do odtwarzania zniekształceń strukturalnych.
Na przykład algorytmy mające na celu identyfikację mowy nienawiści lub języka obraźliwego mogą nieproporcjonalnie ukierunkować terminy slangu używane przez osoby queer, co skutkuje cenzurą lub wyciszeniem autentycznych doświadczeń. Podobnie algorytmy przeznaczone do filtrowania treści pornograficznych mogą nieumyślnie blokować posty dotyczące edukacji seksualnej, zdrowia reprodukcyjnego lub innych tematów związanych z seksualnością. Kwestie te podkreślają potrzebę starannego rozważenia, w jaki sposób algorytmy wpływają na zmarginalizowane populacje i w jaki sposób można je dostosować w celu zminimalizowania negatywnych skutków.
Podsumowując, podczas gdy algorytmy mediów społecznościowych oparte na sztucznej inteligencji mogą przyczynić się do większej reprezentacji i widoczności głosów LGBTQ, mogą one również stwarzać znaczne zagrożenia. Platformy powinny nadać priorytet włączeniu społecznemu w ich rozwój i podejmować stałe wysiłki w celu rozwiązania problemu stronniczości w swoich systemach. Dzięki temu możemy stworzyć bardziej sprawiedliwy krajobraz cyfrowy, w którym wszystkie głosy są słyszane i doceniane.
Jakie są konsekwencje algorytmów mediów społecznościowych opartych na sztucznej inteligencji dla reprezentacji, widoczności i usuwania głosów LGBTQ i w jaki sposób technologie te mogą replikować stronniczości strukturalne?
Jednym z najpoważniejszych problemów, z którymi borykają się osoby lesbijskie, gejowskie, biseksualne, transseksualne, queer (LGBTQ), jest brak ich reprezentacji w kulturze głównego nurtu. Ten brak reprezentacji wymazał historie, doświadczenia i perspektywy tych grup, które zostały w dużej mierze zignorowane przez całe społeczeństwo.