Алгоритмы - это компьютерные программы, которые могут обрабатывать данные для решения задач. Они работают по математическим формулам и логике. Алгоритмы используются везде - от поисковых систем до каналов социальных сетей и приложений для онлайн-знакомств. Но как алгоритмы отражают социальные предубеждения, которые маргинализируют квир-голоса?
В этой статье я исследую, как алгоритмические предубеждения влияют на квир-людей и как они увековечивают неравенство. Я также приведу примеры реальных сценариев, когда странные люди подвергались дискриминации из-за алгоритмической предвзятости.
Наконец, я предложу некоторые решения для снижения алгоритмической предвзятости.
Алгоритмическая предвзятость
Алгоритмы разрабатываются людьми, которые могут неосознанно внедрять свои собственные предубеждения в код. Это означает, что алгоритмы могут отражать социальные нормы и предрассудки, которые часто маргинализируют квир-голоса.
Например, веб-сайт онлайн-покупок может показывать мужчинам и женщинам разную рекламу, основанную на гендерных стереотипах о том, что они должны покупать. Точно так же алгоритм подачи заявок на работу может отдать предпочтение прямым заявителям, а не странным, потому что компания считает, что гетеросексуальность более распространена в отрасли.
Примеры алгоритмического смещения
Одним из недавних примеров алгоритмического смещения было то, когда Tinder представил оценки «Эло», чтобы соответствовать пользователям. Оценка Эло должна измерять совместимость между двумя людьми.
Однако оказалось, что алгоритм отдавал предпочтение белым, цисгендерным, гетеронормативным особям, даже несмотря на то, что эти характеристики не были частью критериев соответствия. В результате многие странные люди чувствовали себя исключенными из платформы и вообще покинули ее.
Еще один пример - технология распознавания лиц, которая, как было показано, неправильно идентифицирует транс - и небинарных лиц в качестве назначенного им пола при рождении. Это может привести к опасным ситуациям, когда сотрудники правоохранительных органов используют неверные данные, чтобы арестовать или преследовать кого-либо.
Решения для снижения алгоритмической предвзятости
Чтобы уменьшить алгоритмическую предвзятость, компании должны быть прозрачны в отношении того, как работают их алгоритмы, и собирать разнообразную обратную связь от пользователей. Им также необходимо нанимать разработчиков с различным опытом и взглядами, чтобы гарантировать, что все голоса представлены в процессе проектирования.
Наконец, они должны внедрить надежные меры контроля качества для проверки предвзятости перед выпуском новых продуктов или обновлений.
В заключение, алгоритмы могут увековечить социальные предубеждения против странных людей, отражая нормы и предрассудки. Компании должны предпринять шаги, чтобы уменьшить эту предвзятость, будучи прозрачными в отношении своих алгоритмов и включая различные точки зрения в развитие. Если мы хотим создать более справедливое общество, мы должны решать проблему алгоритмического смещения в лоб.
Как алгоритмы отражают социальные предубеждения, которые маргинализируют квир-голоса?
Одним из способов, которым алгоритмы могут отражать социальные предубеждения, является их разработка и реализация. Поскольку алгоритмы создаются людьми, они могут включать в себя определенные ценности и убеждения, которые распространены в обществе. Это означает, что они с большей вероятностью будут иметь преимущество перед другими, такими как гетеронормативность или цисгендеризм.