Logo

ZeroOpposite

Contact Us
Search

SEKSUALNOŚĆ, INTYMNOŚĆ I SZTUCZNA INTELIGENCJA: ZROZUMIENIE STRONNICZOŚCI W SPOŁECZNOŚCIACH LGBT plEN IT FR DE PT RU AR JA CN ES

Co oznacza "AI" i "LGBT'?

Termin sztuczna inteligencja (AI) odnosi się do programów komputerowych, które są przeznaczone do wykonywania zadań wymagających ludzkiej inteligencji, takich jak zrozumienie języka naturalnego, rozpoznawanie obiektów, podejmowanie decyzji i uczenie się opartych na danych. Natomiast społeczności lesbijskie, gejowskie, biseksualne, transseksualne, queer/ankietowe, intersex, aseksualne, sojusznicze + (LGBTQIA +) odnoszą się do osób, które utożsamiają się poza tradycyjnymi związkami binarnymi mężczyzn i kobiet, heteroseksualnych, cisgender i monogamicznych.

Jak AI uczy się od danych?

W uczeniu maszynowym AI system uczy się z dużych zbiorów danych zawierających oznakowane przykłady. Używa algorytmów, aby znaleźć wzory w danych i uogólnić te wzory do nowych przypadków. Im bardziej zróżnicowany zbiór danych, tym lepiej AI może się nauczyć.

Jeśli jednak zestaw danych zawiera stronniczości wobec osób LGBT, AI będzie również replikować te stronniczości.

Dlaczego ludzie LGBT spotykają się z uprzedzeniami w społeczeństwie?

Wiele społeczeństw nadal ma uprzedzenia wobec nieheteronormatywnej seksualności i tożsamości płciowej. Uprzedzenia te są często wyrażane poprzez dyskryminację, przemoc i wykluczenie społeczne. W rezultacie osoby LGBT mogą być niedostatecznie reprezentowane lub błędnie przedstawiane w agencjach rządowych i mediach.

Jak to wpływa na systemy AI?

Jeśli systemy AI opierają się na stronniczych zbiorach danych, mogą one prowadzić do niesprawiedliwych wyników dla osób LGBT.

Na przykład, oprogramowanie do rozpoznawania twarzy przeszkolone na obrazach z wieloma twarzami LGBT może walczyć o rozpoznawanie osób transseksualnych. Może to prowadzić do dyskryminacyjnych praktyk policyjnych.

Jakie zasady etyczne powinny kierować rozwojem sztucznej inteligencji?

Naukowcy i deweloperzy muszą przestrzegać zasad etycznych, takich jak sprawiedliwość, odpowiedzialność, przejrzystość i poufność podczas opracowywania systemów grypy ptaków. Muszą zadbać o to, by ich praca była integracyjna i szanowana dla wszystkich społeczności.

Jak naukowcy mogą uniknąć powielania stronniczości społecznych?

Aby zapobiec rozprzestrzenianiu się stronniczości, naukowcy powinni korzystać z bezstronnych zbiorów danych, rozważyć alternatywne metody szkolenia i angażować się w zmarginalizowane społeczności podczas procesu projektowania.

Jakie mechanizmy leżą u podstaw reprodukcji przez systemy AI stronniczości społecznej wobec społeczności LGBT i w jaki sposób naukowcy i deweloperzy mogą interweniować etycznie?

Najczęstsze sposoby powielania przez systemy sztucznej inteligencji (AI) stronniczości społecznej obejmują nadmierne poleganie na stronniczych zbiorach danych i algorytmach utrwalających istniejące stereotypy. Jest to szczególnie ważne, gdy uprzedzenia te są związane z grupami marginalizowanymi, takimi jak osoby lesbijskie, gejowskie, biseksualne i transseksualne (LGBT).