При рассмотрении потенциальных предубеждений в системах искусственного интеллекта (ИИ) важно учитывать те, которые могут повлиять на людей, которые идентифицируют себя как лесбиянки, геи, бисексуалы, трансгендеры и квир/вопросы (ЛГБТК +). Эти предубеждения могут иметь серьезные последствия для их безопасности, конфиденциальности, доступа к здравоохранению, возможностей трудоустройства и многого другого.
Однако существует несколько механизмов для обнаружения, смягчения и предотвращения увековечивания этих предубеждений в системах ИИ. В этой статье я исследую, насколько эффективны эти механизмы на практике.
Одним из механизмов выявления предвзятости ИИ в отношении ЛГБТ-групп населения является аудит. Это включает в себя проверку кода алгоритма и источников данных, чтобы увидеть, отражают ли они разнообразие населения, которому они предназначены служить.
Например, компания, разрабатывающая приложение для онлайн-знакомств, может нанять независимого консультанта, чтобы оценить, включают ли ее алгоритмы термины, связанные с гендерной идентичностью или сексуальной ориентацией, которые могут исключать определенных пользователей. Если это так, консультант порекомендовал бы внести изменения в алгоритм, чтобы сделать его более инклюзивным. Другим методом обнаружения является тестирование с различными группами. Исследование, опубликованное в Nature, показывает, как команда исследователей проверила модель классификации изображений с использованием черт лица и обнаружила, что она делала неточные прогнозы о сексуальной ориентации на основе стереотипов, таких как бороды или серьги. Результаты побудили исследователей переквалифицировать модель с большим и более репрезентативным набором данных.
Еще один подход к решению проблемы предвзятости ИИ заключается в анализе справедливости. Это включает в себя измерение влияния конкретного процесса принятия решений на различные группы населения. Исследование, проведенное ProPublica, показало, что система подбора персонала Amazon реже отбирает кандидатов-женщин, потому что она предпочитает резюме, в которых есть слово «исполнительный», тем, у кого его нет. Анализируя процесс принятия решений, исследование выявило потенциальную предвзятость в отношении женщин. В результате Amazon обновила свою систему, убрав термин «исполнительный». Анализ справедливости также может быть использован для выявления предубеждений в других областях, таких как уголовное правосудие, здравоохранение и жилье.
Чтобы смягчить предвзятость ИИ, одна из стратегий - использовать контрфактические объяснения. Они объясняют, почему было принято конкретное решение, и предлагают альтернативы, которые могли привести к другому результату.
Например, если ипотечный кредитор использует ИИ для определения кредитоспособности, он должен предоставить объяснения решений, которые не являются благоприятными для заявителей ЛГБТ.
Например, контрфактическое объяснение может гласить: «Если бы ваш доход был на 500 долларов выше, вы бы получили право на этот кредит». Другая стратегия заключается в реализации ограничений на входные данные и алгоритмические параметры.
Например, банк может ограничить использование гендерно-специфического языка при определении права на займы.
Кроме того, есть несколько шагов, которые компании могут предпринять, чтобы в первую очередь предотвратить предвзятость ИИ. Один из подходов - сбор демографической информации о своих пользователях или клиентах. Такие компании, как Google и Facebook, требуют от своих разработчиков учитывать разнообразие при разработке продуктов, что помогает гарантировать, что их системы непреднамеренно не исключают определенные группы. Другая стратегия заключается в использовании разнообразных наборов данных во время обучения модели для снижения риска стереотипирования.
Наконец, компании могут встроить этические руководящие принципы в свои процессы разработки ИИ, чтобы помочь обеспечить справедливость и прозрачность на протяжении всего процесса.
Хотя эти механизмы существуют для выявления, смягчения и предотвращения предвзятости ИИ в отношении ЛГБТ-групп населения, их эффективность зависит от нескольких факторов. Некоторые исследования показывают, что аудит сам по себе не может полностью устранить все формы дискриминации, потому что предубеждения могут быть тонкими и их трудно определить. Другие исследования показывают, что аудит может быть полезным, но требует опыта как в машинном обучении, так и в социальной справедливости, чтобы быть эффективным.Контрфактические объяснения не всегда могут быть точными или всеобъемлющими, а ограничения могут привести к новым рискам, если они слишком ограничительны. Создание инклюзивности в процессе проектирования также может потребовать ресурсов и персонала, которые понимают, как различные идентичности пересекаются с технологиями.
В целом, потребуются постоянные усилия лидеров отрасли, политиков и групп защиты интересов, чтобы гарантировать, что системы ИИ обслуживают всех одинаково и справедливо.
Какие существуют механизмы для выявления, смягчения и предотвращения предвзятости ИИ в отношении ЛГБТ-групп населения и насколько они эффективны на практике?
Несмотря на растущее признание сообществ лесбиянок, геев, бисексуалов, трансгендеров (ЛГБТ), в искусственном интеллекте (ИИ) все еще существуют предубеждения. Эти предубеждения проявляются как предрассудки, основанные на гендерной идентичности, сексуальной ориентации, расе, возрасте, этнической принадлежности, религии, внешности и т. д., которые могут быть встроены в обучающие данные, используемые для обучения алгоритмов. Разные исследователи предложили различные механизмы решения проблемы предвзятости ИИ в отношении ЛГБТ-групп населения.