Logo

ZeroOpposite

Contact Us
Search

ODKRYCIE ZŁOŻONOŚCI UPRZEDZEŃ DOTYCZĄCYCH SZTUCZNEJ INTELIGENCJI I JEJ WPŁYWU NA OSOBY LGBT plEN IT FR DE TR PT RU AR JA CN ES

2 min read Lesbian

Sztuczna Inteligencja (AI) zrewolucjonizowała wiele branż, w tym opieki zdrowotnej, finansów i edukacji.

Stwarza jednak również znaczne ryzyko, gdy wykorzystuje się je do dyskryminacji grup marginalizowanych, takich jak osoby LGBT.

W jeden sposób algorytmy AI zwiększają stronniczość poprzez wprowadzanie danych. Modele uczenia maszynowego są szkolone przy użyciu dużych zbiorów danych zawierających historyczne wzory i trendy. Zbiory danych często odzwierciedlają stronniczości społeczne i uprzedzenia, które utrwalają nierówność. Na przykład, jeśli zestaw danych do składania wniosków o pracę zawiera głównie heteroseksualnych wnioskodawców, którzy mają tradycyjne role płci, algorytm może wspierać te cechy w swoich prognozach, co może prowadzić do mniejszej liczby osób LGBT rekrutowanych.

Innym sposobem, w jaki AI może przyczynić się do uprzedzeń, są procesy decyzyjne. Niektóre modele uczenia maszynowego opierają się na statystycznych korelacjach między niektórymi cechami i wynikami, takimi jak kolor skóry i wskaźniki przestępczości. W tym przypadku, czarnych ludzi można fałszywie zidentyfikować jako przestępców częściej niż białych ludzi ze względu na ich kolor skóry. Tego rodzaju systemowy rasizm może rozprzestrzenić się na inne obszary, takie jak zatrudnienie czy mieszkania.

Wreszcie, ludzki błąd może przyczynić się do stronniczych wyników AI. Deweloperzy muszą zapewnić, że nie kodują własnych nieświadomych zniekształceń w kodzie.

Na przykład programista może nieumyślnie oznaczyć tematy związane z LGBT jako „wrażliwe" i ograniczyć dostęp do nich podczas szkolenia.

Aby złagodzić te problemy, deweloperzy powinni priorytetowo traktować różnorodność w procesie projektowania. Powinny one szukać informacji od społeczności LGBT i włączyć praktyki sprzyjające włączeniu społecznemu do ich przepływu pracy. Ponadto powinny one rozważyć alternatywne środki mające na celu zmniejszenie stronniczości, takie jak randomizacja danych lub audyt algorytmów przed wdrożeniem.

Wreszcie, regularne testowanie i konserwacja są niezbędne, aby zidentyfikować i skorygować wszelkie błędy w czasie.

Zajmując się nierównościami strukturalnymi w projektowaniu algorytmicznym, deweloperzy mogą wykorzystywać AI odpowiedzialnie i etycznie do napędzania innowacji.

W jaki sposób sztuczna inteligencja może zwiększyć stronniczość wobec osób LGBT i w jaki sposób deweloperzy mogą etycznie rozwiązać te nierówności strukturalne w projektowaniu algorytmicznym?

Wykazano, że sztuczna inteligencja (AI) wzmacnia stronniczość w stosunku do osób LGBTQ + poprzez replikację i wzmacnianie istniejących struktur społecznych, które przyczyniają się do heteronormatywności, cisnormativeness i związków płciowych. Brak reprezentacji i danych na temat tożsamości queer w zestawach danych szkoleniowych dotyczących sztucznej inteligencji przyczynia się do tego problemu.