Uprzedzenia algorytmiczne można zdefiniować jako uprzedzenia wynikające z danych wykorzystywanych do szkolenia algorytmów, które następnie utrwalają te same uprzedzenia poprzez swoje przewidywania i decyzje. W ostatnich latach wzrasta niepokój o to, jak uprzedzenia algorytmiczne mogą wpływać na postrzeganie przez ludzi płci i seksualności w internecie. Ten esej zbada, jak algorytmiczne uprzedzenia mogą subtelnie wzmocnić normatywne założenia dotyczące płci i seksualności, szczególnie w kontekście online randki aplikacje i platformy social media.
Ważne jest, aby pamiętać, że wiele usług online w dużej mierze zależy od treści generowanych przez użytkowników, takich jak profile i posty, aby zapewnić spersonalizowane zalecenia i wyniki kojarzeń. Systemy te mają na celu stworzenie iluzji wyboru przy jednoczesnym zachowaniu nierównowagi mocy między użytkownikami a platformami.
Na przykład, gdy użytkownik tworzy profil na aplikacji randkowej, są one prezentowane z serią potencjalnych meczów w oparciu o ich lokalizację, zakres wiekowy, zainteresowania, i inne czynniki demograficzne.
Możliwe jest jednak, że na ten proces wpływają stronnicze dane lub przestarzałe stereotypy, co prowadzi do ograniczonych możliwości dla tych, którzy nie pasują do tradycyjnych kategorii.
Jeden z przykładów uprzedzeń algorytmicznych w Internecie randki pochodzi z OkCupid, popularnej platformy randkowej, która używa systemu dopasowania do łączenia użytkowników w oparciu o wspólne interesy. Badanie przeprowadzone przez Data & Society wykazało, że algorytm OkCupid faworyzuje heteroseksualne pary nad osobami LGBTQ + ze względu na historyczne wzorce w danych użytkowników. W rezultacie, podczas gdy ponad połowa wszystkich nowych małżeństw obejmuje obecnie przynajmniej jednego partnera identyfikującego się jako cokolwiek innego niż bezpośrednie, użytkownicy, którzy nie identyfikują się jako cisgender, mogą być przedstawiani z mniejszą liczbą opcji niż ci, którzy to robią.
Podobnie, algorytmy używane przez Facebook i Instagram do określania, jakie treści pojawiają się w kanałach użytkowników są często stronnicze wobec zmarginalizowanych grup. Na przykład, badania opublikowane w Nature Communications wykazały, że kobiety częściej niż mężczyźni otrzymują reklamy produktów odchudzających, utrwalając szkodliwe normy płci wokół obrazu ciała. Ponadto badania wykazały, że czarni Amerykanie częściej niż biali Amerykanie widzą reklamy dyskryminacji mieszkaniowej w mediach społecznościowych, zwiększając różnice rasowe. Tego typu uprzedzenia algorytmiczne mogą prowadzić do zawężonych perspektyw i wzmacniać negatywne stereotypy dotyczące niektórych grup. Podsumowując, podczas gdy wiele usług internetowych twierdzi, że oferują personalizację i wybór, mogą one rzeczywiście ograniczyć zdolność swoich użytkowników do badania poza ustalonymi normami dotyczącymi płci i seksualności. Badając, w jaki sposób te systemy działają, możemy zacząć kwestionować założenia, które za nimi stoją, i dążyć do stworzenia bardziej integracyjnych rozwiązań alternatywnych.
Ważne jest również, aby użytkownicy wiedzieli, jak ich dane osobowe są wykorzystywane i udostępniane, aby mogli podejmować świadome decyzje o tym, co wolą udostępniać online.
Czy zniekształcenia algorytmiczne mogą subtelnie wzmacniać normatywne założenia dotyczące płci i seksualności w internecie?
Błędy algorytmiczne można zdefiniować jako systematyczne błędy wynikające z stronniczych decyzji podejmowanych przez algorytmy uczenia maszynowego oparte na zbiorach danych zawierających stronniczość człowieka. Uprzedzenia te mogą mieć niezamierzone konsekwencje dla marginalizowanych społeczności i prowadzić do dyskryminacji. W przypadku platform internetowych, takich jak media społecznościowe, uprzedzenia te mogą wpływać na sposób wzajemnej interakcji i kształtować relacje, w tym relacje związane z płcią i seksualnością.