Logo

ZeroOpposite

Contact Us
Search

МОГУТ ЛИ РЕКОМЕНДАЦИИ ПО ОКАЗАНИЮ ПОМОЩИ СПОСОБСТВОВАТЬ СПРАВЕДЛИВОМУ ПРЕДСТАВИТЕЛЬСТВУ СТРАННЫХ ЛЮДЕЙ В СОЦИАЛЬНЫХ СЕТЯХ? ruEN IT FR DE PL TR PT AR JA CN ES

3 min read Queer

ИИ произвел революцию во многих аспектах жизни общества, включая социальные сети. Такие платформы, как Facebook, Instagram и TikTok, в значительной степени полагаются на алгоритмы для персонализации пользовательского опыта через рекомендательные системы.

Однако эти системы столкнулись с критикой за то, что не смогли точно представить квир-сообщества, что вызывает этические опасения в отношении справедливости и инклюзивности. В этой статье рассматриваются проблемы, связанные с рекомендациями для квир-людей, основанными на искусственном интеллекте, и обсуждается, как повышение алгоритмической прозрачности может способствовать справедливому представительству.

Проблемы, с которыми сталкиваются квир-люди в социальных сетях:

Платформы социальных сетей стали неотъемлемой частью современной жизни, предоставляя пространство для общения и самовыражения.

Однако для странных людей найти поддерживающие сообщества и увидеть, как они отражаются в сети, может быть сложно. Алгоритмы могут не распознавать свои интересы, предпочтения и потребности, что приводит к ограниченному доступу к соответствующему контенту и исключению из позитивного опыта.

Например, если кто-то ищет «лесбийский» на YouTube, он может увидеть гетеросексуальный контент или видео, которые специально не предназначены для него. Это отсутствие точного представления может привести к изоляции, снижению уверенности и снижению видимости.

Кроме того, алгоритмы могут увековечивать вредные стереотипы о странности, продвигая негативные нарративы и ограничивая возможности для различных голосов. Некоторые алгоритмы даже усиливают гомофобию, трансфобию и другие формы дискриминации, приводящие к разжиганию ненависти и домогательствам. Эти проблемы непропорционально затрагивают маргинальные группы в сообществе ЛГБТК +, такие как цветные люди, люди с ограниченными возможностями и люди, живущие в сельской местности.

Алгоритмическая прозрачность может способствовать справедливости:

Для решения этих проблем платформы социальных сетей должны уделять приоритетное внимание алгоритмической прозрачности, что относится к тому, чтобы сделать системы рекомендаций более доступными и понятными для пользователей. Это включает в себя объяснение того, как работают алгоритмы, почему делаются определенные рекомендации и какие данные используются для персонализации пользовательского опыта. Повышая прозрачность, платформы могут дать пользователям возможность ориентироваться в платформе, выявлять предубеждения и принимать обоснованные решения о своем опыте. Пользователи также должны иметь контроль над своими данными с возможностью удаления информации, которая не соответствует их идентификационным данным или предпочтениям.

Более того, алгоритмы должны быть разработаны таким образом, чтобы учитывать пересекаемость, распознавая различные идентификационные данные и интересы одновременно.

Например, если пользователь идентифицирует себя как квир и блэк, его рекомендации должны отражать эту многогранную перспективу. Платформы могут включать разнообразие в алгоритмы, сотрудничая с организациями под руководством queer, собирая обратную связь от различных сообществ и обеспечивая представительство на всех уровнях разработки и обслуживания.

Системы рекомендаций, основанные на искусственном интеллекте, произвели революцию в социальных сетях, но могут исключать странных людей.

Однако повышение алгоритмической прозрачности может способствовать справедливому представительству, позволяя пользователям получать доступ к контенту, относящемуся к их идентичности и опыту. Платформы должны отдавать приоритет инклюзивному дизайну, собирать различные точки зрения и давать пользователям больший контроль над своими данными, чтобы создать безопасные и гостеприимные пространства для всех.

Какие этические проблемы возникают из-за систем рекомендаций, основанных на ИИ, в социальных сетях, касающихся квир-представительства, и как алгоритмическая прозрачность может улучшить справедливость и инклюзивность?

Системы рекомендаций на основе искусственного интеллекта для платформ социальных сетей представляют несколько этических проблем в отношении квир-представительства, особенно в отношении персонализированной рекламы и курирования контента. Алгоритмы могут быть разработаны в пользу определенных типов контента, которые привлекают большинство аудитории, что может исключить маргинальные сообщества, такие как ЛГБТК + люди. Это создает среду, в которой они с меньшей вероятностью увидят, что они точно или положительно представлены на этих платформах.