Logo

ZeroOpposite

Contact Us
Search

КАК АЛГОРИТМЫ УСИЛИВАЮТ СОЦИАЛЬНЫЕ ПРЕДУБЕЖДЕНИЯ, КОТОРЫЕ МАРГИНАЛИЗИРУЮТ КВИР-ГОЛОСА В ИНТЕРНЕТЕ? ruEN IT FR DE PL TR PT AR JA CN ES

3 min read Queer

Как алгоритмы усиливают социальные предубеждения, которые маргинализируют квир-голоса в Интернете?

Интернет становится все более доступным для людей во всем мире, позволяя им общаться с другими людьми, которые разделяют схожие интересы и опыт.

Однако, несмотря на этот прогресс, некоторые группы все еще сталкиваются с дискриминацией и предрассудками из-за своей идентичности. Квир-индивидуумы относятся к числу наиболее пострадавших от этих предубеждений, потому что общество часто считает их отклонением от нормы. Таким образом, они изо всех сил пытаются найти места, где они могут открыто выражать себя без осуждения и насмешек. Здесь в игру вступают алгоритмы; они создают возможности для связей, но также увековечивают вредные стереотипы и изоляцию. Алгоритмы усиливают социальные предубеждения, которые маргинализируют квир-голоса в Интернете с помощью таргетированной рекламы, алгоритмической фильтрации и персонализированных результатов поиска.

Таргетированная реклама включает в себя использование пользовательских данных для показа рекламы, адаптированной к конкретной демографии.

Например, если компания хочет продавать продукты, связанные с гендерной идентичностью, она может быть нацелена на трансгендерных пользователей на основе их истории посещений и активности в социальных сетях. Хотя этот подход увеличивает частоту переходов, он также укрепляет идею о том, что определенные группы людей менее желательны, чем другие. Он посылает сообщение о том, что трансгендерность - это нечто особенное или нишевое, а не часть повседневной жизни, что способствует стигме и маргинализации. То же самое касается приложений для знакомств, которые подбирают пользователей на основе сексуальной ориентации; в то время как эти платформы предлагают безопасные пространства для ЛГБТК + людей, чтобы встретиться с партнерами-единомышленниками, они дополнительно изолируют гетеросексуальных людей, которые могут не знать или не быть уверенными в негетеронормативных отношениях.

Алгоритмическая фильтрация опирается на методы машинного обучения, чтобы курировать контент для предпочтений каждого пользователя. К сожалению, этот процесс может исключить различные перспективы, так как алгоритмы предполагают, что зрители хотят видеть, основываясь на предыдущих взаимодействиях с подобными материалами.

Например, алгоритм может рекомендовать видео о выпуске историй только простым зрителям, потому что это все, что они смотрели в прошлом. Затем квир-индивидуумы становятся невидимыми при поиске таких тем, поскольку алгоритм предполагает, что они уже знают все, что о них нужно знать. Это создает цикл, когда только цисгендерные, гетеросексуальные повествования остаются видимыми в Интернете, замалчивая альтернативные голоса.

Персонализированные результаты поиска работают аналогично, показывая результаты, наиболее соответствующие индивидуальным интересам, вместо того, чтобы давать равные возможности различным перспективам. Если кто-то ищет «лесбийскую историю любви», он, скорее всего, увидит статьи с участием белых лесбиянок и цисгендерных женщин, а не разнообразные представления. Это исключение усиливает представление о том, что странность приемлема только в том случае, если она соответствует ожиданиям общества, ограничивая видимость за пределами основных идеалов.

В заключение, алгоритмы усиливают социальные предубеждения, которые маргинализируют квир-голоса в Интернете посредством целевой рекламы, алгоритмической фильтрации и персонализированных результатов поиска. Эти процессы создают цикл, в котором видны только определенные идентичности, усиливая стигму и дискриминацию в отношении тех, кто не вписывается в традиционные нормы. Чтобы бороться с этой проблемой, компании должны обеспечить инклюзивность на разных платформах, предлагая ресурсы, адаптированные ко всем демографическим характеристикам, и избегать предположений о том, что хотят видеть пользователи.

Как алгоритмы усиливают социальные предубеждения, которые маргинализируют квир-голоса в Интернете?

Люди часто предполагают, что технология беспристрастна, но она отражает человеческие ценности и убеждения. Алгоритм, лежащий в основе интернет-платформ, с которыми мы взаимодействуем, регулярно учится на моделях поведения и предпочтений пользователей с течением времени. Например, если определенные типы контента и стили общения более популярны среди гетеросексуальных людей, чем другие, то эти паттерны будут отражены в рекомендательных системах, используемых этими платформами.