Logo

ZeroOpposite

Contact Us
Search

ВЛИЯНИЕ АЛГОРИТМОВ И МОДЕРАЦИИ КОНТЕНТА НА ВИДИМОСТЬ ДЛЯ КВИР-СООБЩЕСТВ. ruEN IT FR DE PL TR PT AR JA CN ES

4 min read Trans

Алгоритмы и модерация контента являются важными инструментами, которые формируют то, как люди видят и взаимодействуют друг с другом в Интернете. Когда дело доходит до квир-сообществ и их выражения, они становятся все более влиятельными в определении того, какие голоса услышаны, а какие молчат. На таких платформах, как Facebook, Instagram и TikTok, пользователи могут публиковать контент о своем опыте в качестве людей с LGBTQ +, но нет никаких гарантий, что все смогут его увидеть благодаря алгоритмическим решениям, принимаемым этими компаниями на основе показателей вовлеченности и рекомендаций сообщества. В этой статье мы рассмотрим, как алгоритмы и модерация контента влияют на видимость маргинальных групп в квир-пространствах, включая цветных трансгендеров, которые сталкиваются с высоким уровнем дискриминации как внутри, так и за пределами квир-сообщества. Мы также обсудим, как эти системы могут быть реформированы, чтобы лучше поддерживать все голоса, чтобы никто не чувствовал себя обделенным или игнорируемым при самовыражении через социальные сети.

Важность алгоритмов и модерации контента

Социальные сети изменили способ общения людей друг с другом, позволяя им соединяться через физические границы и обмениваться идеями, мнения и опыт легче, чем когда-либо прежде.

Однако это также создало новые проблемы, связанные с видимостью, доступность и представленность, особенно для маргинальных групп, таких как те, кто идентифицирует себя как ЛГБТК +. Такие платформы, как Facebook, Instagram и TikTok, в значительной степени полагаются на показатели вовлеченности пользователей, такие как лайки, перепосты, комментарии и фоллы, чтобы определить, какие публикации появляются в лентах. Это означает, что контент, которому уделяется много внимания, будет отображаться выше в результатах поиска или списках тенденций, в то время как посты, которые не вызывают большого вовлечения, могут вообще не отображаться, если кто-то активно не ищет их. Когда дело доходит до представления странных перспектив, эта система может привести к недопредставленности или даже стиранию, если определенные типы контента не распространяются достаточно широко.

Кроме того, многие платформы проводят строгую политику в отношении наготы и сексуальности, что затрудняет пользователям открыто говорить о близости, не опасаясь цензуры или приостановки.

Маргинализация трансгендерных людей цвета кожи

Трансгендерные люди уже сталкиваются с непропорциональным уровнем дискриминации как внутри, так и за пределами своих сообществ из-за социальных предрассудков против гендерного несоответствия. Когда вы добавляете расу в уравнение, эта борьба становится еще более острой. Согласно исследованию Pew Research Center, чернокожие транс-женщины в два раза чаще сталкиваются с домогательствами в интернете по сравнению с белыми транс-женщинами. Они также склонны зарабатывать меньше денег в интернете за счет монетизации социальных сетей из-за расистских предубеждений среди потенциальных спонсоров. Кроме того, платформы часто борются с тем, как модерировать контент, связанный с бодипозитивом или секс-работой с участием транс-людей, поскольку эти темы выходят за рамки традиционных норм, касающихся сексуального самовыражения, но остаются важными частями идентичности некоторых сообществ.

Наконец, существуют доказательства того, что алгоритмы могут усиливать негативные стереотипы, связанные с трансгендерными людьми, когда они появляются в новостных передачах или предлагаемых видео, основываясь на истории просмотра, а не на качестве или актуальности. Все эти факторы объединяются, чтобы создать среду, в которой трансгендерные голоса часто замалчиваются или исключаются из разговоров о проблемах ЛГБТК +.

Пути реформирования алгоритмов и модерации контента

Хотя реформирование алгоритмических систем является непростой задачей, учитывая их сложность и важность в поддержании вовлеченности пользователей, есть несколько стратегий, которые могут помочь обеспечить большую видимость для маргинальных групп, таких как странные цветные люди:

1.Определение приоритетности инклюзивных языковых рекомендаций. Платформы должны предоставлять четкие рекомендации относительно того, какие типы языков приемлемы при обсуждении чувствительных тем, таких как гендерная идентичность или близость, чтобы пользователи точно знали, как далеко они могут раздвинуть границы, не рискуя подвергнуться цензуре или наказанию.

2. Содействие разнообразному представительству. Компании могут сотрудничать с организациями, занимающимися поддержкой недостаточно представленных лиц в сообществе ЛГБТК +, выразив их на своих веб-сайтах или подчеркнув инициативы, направленные на снижение неравенства.

3. Разрешить нюансы выражения: Платформы могут позволить пользователям больше свободы свободно выражать себя, в то же время обеспечивая соблюдение правил против домогательств или разжигания ненависти. Это потребует переосмысления существующих методов модерации, которые имеют тенденцию к чрезмерной цензуре, а не к детальной интерпретации намерений, стоящих за постами.

4. Изучите алгоритмические предубеждения: компании должны выяснить, почему определенный контент рассматривается не так широко, как другие, и работать над исправлением любых основных системных предубеждений, которые могут иметь место.

Например, если видео о транс-идентичности получает низкий уровень вовлеченности, но содержит ценную информацию о доступе к здравоохранению или возможностях трудоустройства, это может сигнализировать о более серьезных проблемах с тем, как странные истории распространяются в Интернете, а не об отсутствии привлекательности у отдельного создателя.

5. Поощряйте различные точки зрения:

Наконец, платформы могут побуждать пользователей из всех слоев общества - включая тех, кто идентифицирует себя как прямых союзников цисгендера - высказываться о проблемах, затрагивающих маргинализированные сообщества, предоставляя ресурсы о том, как лучше всего сделать это эффективно (например, через статьи). Предпринимая эти шаги вместе, мы можем создать пространства, где каждый чувствует себя услышанным независимо от идентичности, и гарантировать, что никто не останется в стороне при обсуждении важных тем, таких как сексуальность и гендерная идентичность.

Как алгоритмы и модерация контента формируют видимость и маргинализацию квир-голосов в Интернете?

Несмотря на растущее присутствие ЛГБТК + лиц на платформах социальных сетей и растущее признание их идентичности в обществе, видимость и представительство этих сообществ остаются проблематичными из-за различных факторов, таких как алгоритмические предубеждения и политика цензуры. Алгоритмическая предвзятость относится к тому, как алгоритмы, используемые компаниями социальных сетей, могут увековечить вредные стереотипы и маргинализировать определенные группы на основе их идентичности, сексуальной ориентации, гендерного выражения или других личных характеристик.