Алгоритмическое смещение относится к предубеждению, которое может возникнуть, когда алгоритмы, используемые для принятия решений в различных областях, таких как найм, кредитование и здравоохранение, могут привести к несправедливым результатам из-за предвзятого ввода данных. Растет обеспокоенность по поводу потенциального влияния алгоритмической предвзятости на людей, которые принадлежат к маргинальным группам, таким как лесбиянки, геи, бисексуалы, трансгендеры (ЛГБТ). В этом документе будут обсуждаться существующие структуры для выявления и смягчения алгоритмической предвзятости в отношении ЛГБТ-людей и насколько они эффективны на практике.
Первая структура включает в себя изучение источников данных, используемых для обучения алгоритма. Это гарантирует, что данные обучения точно отражают обслуживаемое население.
Например, если алгоритм трудоустройства обучен с использованием резюме гетеросексуальных мужчин, это может привести к предвзятым результатам в отношении заявителей ЛГБТ. Чтобы избежать этого, организации могут включить в свои наборы обучающих данных различные источники данных, представляющие все пол, сексуальную ориентацию и гендерную идентичность.
Другой подход предполагает использование мер справедливости при разработке модели. Эти метрики оценивают, рассматривает ли модель разные подгруппы одинаково или отдает предпочтение одной группе перед другой.
Например, показатель равенства сравнивает эффективность модели в разных демографических группах, в то время как разрозненная мера воздействия обнаруживает любые различия между результатами групп.
Кроме того, методы постобработки, такие как повторное взвешивание или калибровка, могут применяться для корректировки выходных данных на основе представления группы в наборе данных.
Кроме того, инструменты объяснимости могут помочь проанализировать модели черного ящика и определить закономерности или корреляции, которые могут причинить вред. Объясняя процесс принятия решений алгоритма, эти методы могут обнаружить скрытые смещения, которые могли остаться незамеченными в противном случае. Объяснимость также позволяет алгоритмам аудита гарантировать, что они не дискриминируют определенные группы.
Наконец, регулярный мониторинг и оценка производительности алгоритма имеют решающее значение для поддержания его эффективности. Организации должны постоянно тестировать свои алгоритмы, чтобы проверить потенциальную предвзятость и внести изменения там, где это необходимо. Это может включать в себя тестирование производительности алгоритма в различных популяциях и сравнение его результатов с другими подобными системами. Мониторинг также помогает выявлять новые формы предвзятости по мере развития общества.
Хотя эти структуры существуют для смягчения алгоритмической предвзятости, их эффективность ограничена. Во-первых, сбор разнообразных данных может быть сложным из-за проблем конфиденциальности и доступности данных. Во-вторых, метрики справедливости не всегда могут точно отражать реальные сценарии, затрудняя обнаружение всех видов дискриминации.
Наконец, инструменты объяснения требуют опыта и времени, что может ограничить их доступность.
В заключение, выявление и смягчение алгоритмической предвзятости в отношении лиц ЛГБТ требует многостороннего подхода, включающего тщательное изучение источников данных, использование мер справедливости во время разработки модели, использование инструментов объяснимости и регулярный мониторинг производительности алгоритма. Хотя эти стратегии обеспечивают некоторую защиту от дискриминации, необходимы дополнительные исследования для устранения возникающих форм предвзятости во все более разнообразном мире.
Какие существуют структуры для выявления и смягчения алгоритмической предвзятости в отношении ЛГБТ-людей и насколько они эффективны на практике?
Было предложено множество рамок для выявления и смягчения алгоритмической предвзятости в отношении ЛГБТ-людей. Одной из таких рамок является Формальная онтология информационных систем (FOIS), которая определяет онтологию как «формальную спецификацию понятий и отношений, которые необходимы для представления области дискурса конкретной области применения» (Ram et al., 2015).