Logo

ZeroOpposite

Contact Us
Search

КАК СТРАННЫЕ ГОЛОСА МАРГИНАЛИЗИРУЮТСЯ АЛГОРИТМАМИ СОЦИАЛЬНЫХ СЕТЕЙ ruEN IT FR DE PL PT AR JA CN ES

2 min read Trans

Алгоритмы являются неотъемлемой частью современных платформ социальных сетей, таких как Facebook, Instagram, Twitter, TikTok, YouTube и т. Д., Которые играют важную роль в регулировании взаимодействия пользователей друг с другом и потребления цифрового контента.

Эти алгоритмы также оказывают глубокое влияние на видимость и усиление квир-контента в Интернете, такого как темы LGBTQ +, идентичности и проблемы. Это происходит потому, что они часто отдают приоритет определенным типам контента, которые соответствуют основным нормам, что приводит к маргинализации квир-голосов и опыта.

Наиболее распространенное алгоритмическое вмешательство происходит, когда пользователи ищут темы, связанные с гендерной идентичностью, сексуальной ориентацией или типом тела. Результаты поиска, как правило, ограничиваются популярными или широко известными квир-фигурами, исключая менее известные, но не менее важные голоса.

Если кто-то ищет «трансгендеров», он может увидеть транс-знаменитостей, таких как Лаверн Кокс или Чез Боно, но без упоминания о менее известных транс-активистах или художниках, которые вносят значимый вклад в сообщество. Аналогично, при поиске «gay» можно увидеть фильм Лунный свет или Дрэг-рейс РуПола, но не независимые фильмы или документальные фильмы, которые исследуют нюансы опыта геев.

Алгоритмы также влияют на то, как странные люди взаимодействуют друг с другом в Интернете.

Некоторые приложения для знакомств используют алгоритмы для сопоставления пользователей на основе их предпочтений, но эти алгоритмы не всегда учитывают гендерную идентичность, сексуальную ориентацию или статус отношений. В результате многие квир-люди чувствуют себя отчужденными и исключенными из экосистемы приложения. Некоторые платформы отреагировали созданием отдельных разделов для квир-людей, но это лишь еще больше отделяет их от остального общества.

Алгоритмы могут привести к маргинализации квир-контента посредством цензуры и демонетизации. Платформы вроде YouTube и Facebook подверглись критике за удаление видео и страниц с контентом LGBTQ +, которые считаются «оскорбительными» или неуместными. Это привело к пугающему эффекту на квир-создателей, которые боятся потерять доступ к своей аудитории или даже стать мишенью для групп ненависти. С другой стороны, предпринимаются усилия по борьбе с алгоритмической предвзятостью и продвижению более инклюзивного контента, такие как безопасный режим Tumblr и инициатива Twitter Trends Map.

Алгоритмическое управление играет важную роль в формировании того, как мы потребляем цифровой контент и взаимодействуем друг с другом в режиме онлайн, включая квир-сообщества. Важно признать эти предубеждения и работать над созданием более инклюзивных и справедливых онлайн-пространств. Мы должны требовать прозрачности и подотчетности от владельцев платформ и выступать за политику, которая защищает маргинализированные голоса и опыт.

Каким образом алгоритмы и управление платформой влияют на видимость, усиление и маргинализацию квир-контента в Интернете?

Алгоритмы - это компьютерные программы, которые обрабатывают входные данные и выдают выходные данные на основе предопределенных правил и параметров. С точки зрения управления платформой, эти алгоритмы могут влиять на видимость и усиление квир-контента, определяя, какие посты появляются в каналах пользователей и результатах поиска. Это может привести к отсутствию разнообразия и представления, поскольку некоторые типы контента могут быть приоритетными по сравнению с другими из-за их популярности, актуальности или предполагаемой важности.