Алгоритмы играют все более важную роль в формировании того, как мы ориентируемся и взаимодействуем с цифровым миром, включая платформы социальных сетей, такие как Facebook, Twitter, TikTok, Instagram и YouTube. Эти алгоритмы предназначены для продвижения постов на основе их актуальности и популярности, что часто приводит к усилению определенных точек зрения, в то же время заставляя замолчать другие. Эта тенденция может иметь серьезные последствия для маргинальных групп, включая людей из общин меньшинств, которые могут столкнуться с дискриминацией, преследованиями и цензурой в Интернете. Одной из таких групп является сообщество ЛГБТК +, чьи голоса слишком часто приглушаются или игнорируются в пользу более мейнстримных перспектив. В этой статье мы рассмотрим, как алгоритмы воспроизводят социальные предубеждения, которые маргинализируют квир-голоса в сети, уделяя особое внимание случаю гендерной идентичности и сексуальной ориентации.
Проблема начинается с того, что большинство платформ социальных сетей требуют от пользователей выбирать пол при создании аккаунта. Хотя это кажется достаточно безобидным, на самом деле это укрепляет идею о том, что есть только два пола - мужской и женский - которые исключают небинарных людей и тех, кто идентифицирует себя как ни один, ни оба. Эта предвзятость затем увековечивается предпочтением алгоритма для постов, которые соответствуют точке зрения большинства, что означает, что небинарный контент, вероятно, будет подавлен.
Например, если кто-то ищет «пол», он может увидеть статьи о проблемах трансгендеров или обсуждениях местоимений, но не многое другое. Аналогично, поиск «сексуальной ориентации» дал бы результаты, связанные с гетеросексуальностью, моногамией и браком, но мало с чем другим.
Другим способом, с помощью которого алгоритмы воспроизводят социальные предубеждения, являются рекомендации по содержанию. Когда пользователи занимаются контентом, связанным с сексуальностью или интимностью, алгоритмы, как правило, отдают приоритет постам, которые отражают традиционные нормы, такие как прямые отношения, моногамные пары или даже порнография с участием цисгендерных личностей. В результате странные голоса могут изо всех сил пытаться набрать обороты, в то время как альтернативные перспективы замалчиваются. Это может иметь серьезные последствия для людей, ищущих поддержки, совета или связи, а также для сообществ ЛГБТК +, пытающихся повысить осведомленность и видимость.
Наконец, алгоритмы также склонны отдавать предпочтение контенту, который является сенсационным или поляризационным, а это означает, что посты, которые бросают вызов обычным взглядам на секс, сексуальность и отношения, могут не получать столько внимания, сколько более мейнстримные мнения. Эта предвзятость может еще больше маргинализировать квир-голоса, так как им может быть труднее охватить аудиторию за пределами их ближайших кругов.
В заключение, алгоритмы играют важную роль в формировании онлайн-дискурса, включая то, как мы говорим о гендерной идентичности и сексуальной ориентации. Воспроизводя социальные предубеждения, которые имеют преимущество перед точкой зрения большинства, эти алгоритмы могут заставить замолчать голоса меньшинств и ограничить доступ к информации. Поэтому крайне важно, чтобы мы работали над созданием более инклюзивных платформ, которые поддерживают все идентичности и перспективы.
Как алгоритмы воспроизводят социальные предубеждения, которые маргинализируют квир-голоса в Интернете?
Алгоритмы - компьютерные программы, предназначенные для решения конкретных задач на основе набора правил и данных. Они могут извлечь уроки из прошлого опыта и со временем улучшить процесс принятия решений. Платформы социальных сетей, такие как Facebook и Twitter, используют алгоритмы для рекомендации контента пользователям на основе их интересов, истории и взаимодействия. Когда эти алгоритмы обучаются с предвзятыми данными, они могут воспроизводить социальные предубеждения, которые маргинализируют квир-голоса в Интернете, продвигая гетеронормативный контент поверх квир-голосов.