Алгоритмические смещения могут быть определены как предрассудки, которые возникают из данных, используемых для обучения алгоритмов, которые затем увековечивают те же самые смещения посредством своих прогнозов и решений. В последние годы растет обеспокоенность тем, как алгоритмические предубеждения могут влиять на восприятие людьми пола и сексуальности в Интернете. В этом эссе будет рассмотрено, как алгоритмическая предвзятость может тонко усилить нормативные предположения о поле и сексуальности, особенно в контексте приложений для онлайн-знакомств и платформ социальных сетей.
Важно отметить, что многие онлайн-сервисы в значительной степени полагаются на пользовательский контент, такой как профили и посты, для предоставления персонализированных рекомендаций и результатов подбора знакомств. Эти системы предназначены для создания иллюзии выбора при сохранении дисбаланса мощности между пользователями и платформами.
Например, когда пользователь создает профиль в приложении для знакомств, им представлена серия потенциальных матчей на основе их местоположения, возрастной диапазон, интересы и другие демографические факторы.
Однако возможно, что на этот процесс влияют предвзятые данные или устаревшие стереотипы, приводя к ограниченным возможностям для тех, кто не вписывается в традиционные категории.
Один из примеров алгоритмической предвзятости в сфере онлайн-знакомств исходит от OkCupid, популярная платформа знакомств, которая использует систему сопоставления для связи пользователей на основе общих интересов. Исследование, проведенное Data & Society, показало, что алгоритм OkCupid отдает предпочтение гетеросексуальным парам, а не лицам LGBTQ + из-за исторических закономерностей в пользовательских данных. В результате, несмотря на то, что более половины всех новых браков в настоящее время включают по крайней мере одного партнера, идентифицирующего себя как нечто иное, чем прямой, пользователям, которые не идентифицируют себя как цисгендерные, может быть представлено меньше вариантов, чем тем, кто это делает.
Аналогично, алгоритмы, используемые Facebook и Instagram для определения того, какой контент появляется в лентах пользователей, часто предвзяты по отношению к маргинальным группам.
Например, исследование, опубликованное в Nature Communications, показало, что женщины чаще, чем мужчины, получают рекламу продуктов для похудения, что увековечивает вредные гендерные нормы вокруг образа тела. Кроме того, исследования показали, что чернокожие американцы чаще, чем белые, видят рекламу дискриминации жилья в социальных сетях, что усиливает расовое неравенство. Эти типы алгоритмических предубеждений могут привести к сужению перспектив и укрепить негативные стереотипы о некоторых группах.
В заключение, хотя многие онлайн-сервисы утверждают, что предлагают персонализацию и выбор, они на самом деле могут ограничивать способность своих пользователей исследовать вне установленных норм относительно пола и сексуальности. Изучая принцип работы этих систем, мы можем начать оспаривать лежащие в их основе предположения и стремиться к созданию более инклюзивных альтернатив.
Кроме того, пользователям важно знать о способах использования и обмена их личной информацией, чтобы они могли принимать обоснованные решения о том, чем они предпочитают делиться в Интернете.
Могут ли алгоритмические искажения тонко усилить нормативные предположения о поле и сексуальности в Интернете?
Алгоритмические смещения могут быть определены как систематические ошибки, которые возникают из-за предвзятых решений, принимаемых алгоритмами машинного обучения на основе наборов данных, которые содержат человеческое предубеждение. Эти предубеждения могут иметь непреднамеренные последствия для маргинализированных сообществ и привести к дискриминации. В случае онлайн-платформ, таких как социальные сети, эти предубеждения могут повлиять на то, как люди взаимодействуют друг с другом и формируют отношения, в том числе связанные с полом и сексуальностью.