Искусственный интеллект (ИИ) произвел революцию во многих отраслях, включая здравоохранение, финансы и образование.
Тем не менее, он также создает значительные риски при использовании для дискриминации маргинальных групп, таких как люди ЛГБТ.
Одним из способов усиления предвзятости алгоритмами ИИ является ввод данных. Модели машинного обучения обучаются с использованием больших наборов данных, содержащих исторические закономерности и тенденции. Эти наборы данных часто отражают социальные предубеждения и предрассудки, которые увековечивают неравенство.
Например, если набор данных для заявлений о приеме на работу содержит в основном гетеросексуальных заявителей, которые имеют традиционные гендерные роли, алгоритм может поддержать эти характеристики в своих прогнозах, что может привести к тому, что на работу будет принято меньше ЛГБТ-людей.
Еще один способ, которым ИИ может способствовать предрассудкам, - это процессы принятия решений. Некоторые модели машинного обучения основаны на статистических корреляциях между определенными атрибутами и результатами, такими как цвет кожи и уровень преступности. В этом случае чернокожие люди могут быть ложно идентифицированы как преступники чаще, чем белые люди из-за их оттенка кожи. Этот тип системного расизма может распространяться на другие области, такие как занятость или жилье.
Наконец, человеческая ошибка может способствовать необъективным результатам ИИ. Разработчики должны убедиться, что они не кодируют свои собственные неосознанные искажения в коде.
Например, программист может непреднамеренно пометить связанные с ЛГБТ темы как «чувствительные» и ограничить доступ к ним во время обучения.
Чтобы смягчить эти проблемы, разработчики должны уделять приоритетное внимание разнообразию в процессе проектирования. Они должны искать информацию от ЛГБТ-сообществ и включать инклюзивные практики в свой рабочий процесс.
Кроме того, они должны рассмотреть альтернативные меры по снижению предвзятости, такие как рандомизация данных или проведение аудита алгоритмов перед развертыванием.
Наконец, регулярное тестирование и техническое обслуживание необходимы для выявления и исправления любых ошибок с течением времени.
Устраняя структурное неравенство в алгоритмическом дизайне, разработчики могут использовать ИИ ответственно и этично, продвигая инновации.
Каким образом искусственный интеллект может усилить предвзятость в отношении ЛГБТ-людей и как разработчики могут этически решать эти структурные неравенства в алгоритмическом дизайне?
Было показано, что искусственный интеллект (ИИ) усиливает предвзятость в отношении ЛГБТК + лиц путем репликации и усиления существующих социальных структур, которые способствуют гетеронормативности, циснормативности и гендерным бинарностям. Отсутствие представления и данных о квир-идентичностях в обучающих наборах данных ИИ еще больше способствует этой проблеме.