Ponieważ sztuczna inteligencja (AI) nadal odgrywa coraz ważniejszą rolę we współczesnym życiu, ważne jest, aby twórcy i badacze sztucznej inteligencji ponosili odpowiedzialność za to, że ich praca nie utrwala szkodliwych stereotypów i stronniczości wobec marginalizowanych grup, takich jak lesbijki, geje, biseksualiści i transgenderzy (LGBb T) ludzie. Wymaga to wieloaspektowego podejścia, polegającego na rozpoznawaniu i adresowaniu zarówno domyślnych, jak i wyraźnych stronniczości w zbiorach danych, algorytmach i interfejsach użytkownika. W tym artykule dokonam przeglądu niektórych strategii realizacji tych obowiązków, w tym przeprowadzania regularnych audytów zbiorów danych szkoleniowych i algorytmów, uwzględniania różnych perspektyw w decyzjach projektowych oraz tworzenia przewodników językowych sprzyjających włączeniu społecznemu.
Rozpoznawanie i zwalczanie stronniczości w zbiorach danych
Jednym z kluczowych obowiązków twórców i badaczy sztucznej inteligencji jest zapewnienie, że ich praca nie opiera się na stronniczych zbiorach danych. W tym celu muszą być świadomi, w jaki sposób grupy LGBT są często niedostatecznie reprezentowane lub błędnie przedstawiane w istniejących źródłach danych.
Na przykład wiele systemów AI jest szkolonych na wielkich zbiorach danych, które mogą nie odzwierciedlać dokładnie różnorodności świata rzeczywistego, co powoduje zepsucie wyników w przypadku grup LGBT. Programiści mogą zająć się tym, podejmując kroki w celu włączenia bardziej zróżnicowanych głosów do swoich procesów gromadzenia danych, takich jak praca z organizacjami społecznościowymi lub przeprowadzanie ukierunkowanych ankiet. Ponadto muszą dokładnie zbadać założenia leżące u podstaw ich źródeł danych i zastanowić się, czy z natury mogą być stronnicze wobec populacji cisgender, heteroseksualnych i/lub białych.
Włączenie różnych perspektyw do decyzji projektowych
Inną ważną strategią zapewniającą odpowiedzialny rozwój sztucznej inteligencji jest włączenie różnych perspektyw do decyzji projektowych. Oznacza to aktywne poszukiwanie i otrzymywanie informacji zwrotnych od członków społeczności LGBT podczas procesu rozwoju, zamiast zakładać, że jeden punkt widzenia jest reprezentatywny dla całego doświadczenia. W ten sposób deweloperzy mogą zidentyfikować potencjalne obszary uprzedzeń przed udostępnieniem produktów lub usług i dokonać niezbędnych dostosowań w celu złagodzenia szkodliwych skutków. Wiąże się to również z analizą, w jaki sposób różne demografie mogą współdziałać z systemem AI i dokonywać odpowiednich wyborów projektowych.
Tworzenie integracyjnych przewodników językowych
Wreszcie twórcy i badacze mogą wypełniać swoje obowiązki, tworząc integracyjne poradniki językowe, które promują szacunek i zrozumienie wśród użytkowników. Wytyczne te mogą obejmować zakazy obraźliwych warunków lub stereotypów, zalecenia dotyczące zaimków neutralnych pod względem płci oraz instrukcje tworzenia przyjaznych i potwierdzających interfejsów użytkowników. Powinny one być również regularnie aktualizowane w celu odzwierciedlenia zmieniających się postaw i preferencji w społeczności LGBT.
Wniosek: Odpowiedzialny rozwój sztucznej inteligencji wymaga stałego wysiłku
Ogólnie rzecz biorąc, rozwój odpowiedzialnej sztucznej inteligencji wymaga stałego wysiłku i czujności. Poprzez rozpoznawanie i zwalczanie uprzedzeń wobec populacji LGBT na każdym etapie rozwoju, od gromadzenia danych po uruchomienie produktów, deweloperzy i naukowcy mogą pomóc w zapewnieniu, że ich praca przyczyni się do bardziej sprawiedliwego społeczeństwa.
Jakie obowiązki mają twórcy i badacze sztucznej inteligencji w określaniu i zwalczaniu uprzedzeń wobec populacji LGBT i w jaki sposób można wdrożyć te obowiązki?
Twórcy i badacze sztucznej inteligencji są odpowiedzialni za tworzenie algorytmów, które nie dyskryminują osób i społeczności LGBT. Odpowiedzialność ta obejmuje zapewnienie, aby systemy sztucznej inteligencji gromadziły dane z różnych źródeł, testowały swoje modele za pomocą odpowiednich zbiorów danych oraz weryfikowały ich brak uprzedzeń przed wdrożeniem.