Logo

ZeroOpposite

Contact Us
Search

КАК АЛГОРИТМЫ УСИЛИВАЮТ СОЦИАЛЬНЫЕ ПРЕДУБЕЖДЕНИЯ ПРОТИВ КВИР-ГОЛОСОВ В ИНТЕРНЕТЕ ruEN IT FR DE PL PT AR JA CN ES

2 min read Queer

Алгоритмы все чаще используются для модерирования онлайн-пространств, включая платформы социальных сетей и поисковые системы. Эти алгоритмы играют важную роль в определении того, какой контент виден и распространен, но они также могут усиливать социальные предубеждения и дискриминировать маргинальные группы, такие как сообщество ЛГБТК +. В этом эссе будет рассмотрено, как алгоритмы способствуют маргинализации квир-голосов и опыта в Интернете.

Развитие технологий произвело революцию в коммуникации, позволяя людям из всех слоев общества общаться друг с другом, как никогда прежде.

Однако, есть и обратная сторона этого развития, которая заключается в том, что многие меньшинства по-прежнему недопредставлены и исключены из основного дискурса.

Например, члены квир-сообщества давно сталкиваются со стигмой и предрассудками в обществе, что означает, что их голоса часто заглушаются или полностью игнорируются. Одним из способов, которым это проявляется, является алгоритмическая предвзятость, при которой компьютерные программы, предназначенные для фильтрации контента, могут непреднамеренно исключать странные перспективы.

Существует несколько способов, с помощью которых алгоритмы воспроизводят социальные предубеждения и дискриминацию в отношении странных голосов в Интернете. Во-первых, некоторые алгоритмы полагаются на данные, сгенерированные пользователем, чтобы определить, какой контент должен быть приоритетным или рекомендованным пользователям. Это может привести к однородной точке зрения, доминирующей в разговоре, поскольку те, кто не идентифицирует себя как гетеросексуал, могут с меньшей вероятностью заниматься определенными темами или делиться своим мнением в Интернете.

Кроме того, алгоритмы могут использовать модели машинного обучения, которые анализируют существующие модели речи и поведения, чтобы информировать свои решения о том, какой контент продвигать. Это может привести к сохранению стереотипов и неправильных представлений о квир-сообществе.

Еще одним фактором, способствующим этой проблеме, является отсутствие разнообразия среди тех, кто создает эти алгоритмы. Многие технологические компании не могут нанять достаточное количество сотрудников ЛГБТК +, что означает, что они не привносят различные перспективы в процесс разработки алгоритмов.

Наконец, сами платформы социальных сетей могут активно цензурировать квир-голоса, либо удаляя посты, либо уменьшая их видимость. Это может создать эффект эхо-камеры, когда представлена только одна перспектива, а другие заглушены.

В заключение, алгоритмическая предвзятость способствует маргинализации квир-голосов в Интернете. Для технологических компаний важно решать эту проблему, нанимая больше людей из числа ЛГБТК + в свою рабочую силу и обеспечивая инклюзивность своих продуктов.

Кроме того, платформы социальных сетей должны нести ответственность за свою роль в цензурировании голосов в очереди. Тем самым мы можем создать более справедливое онлайн-пространство, где все голоса могут быть услышаны и уважаемы в равной степени.

Как алгоритмы воспроизводят предвзятость общества и дискриминацию в отношении квир-голосов в Интернете?

Алгоритмические процессы принятия решений, которые управляют поисковыми системами и платформами социальных сетей, могут привести к усилению гетеронормативных голосов и маргинализации квир-голосов из-за предубеждений, встроенных в данные, используемые для таких решений.