Интернет произвел революцию в том, как люди общаются, общаются, самовыражаются и взаимодействуют. Теперь это важная часть повседневной жизни миллиардов пользователей во всем мире.
Однако, как и любой другой носитель, он подвержен предвзятости, которая может повлиять на представительство определенных групп, включая сообщества LGBTQ +. В этом документе будет рассмотрено, как алгоритмы, системы рекомендаций и модерация контента влияют на видимость и маргинализацию квир-голосов в Интернете.
Алгоритмы - это наборы инструкций, используемых поисковыми системами для ранжирования веб-сайтов по ключевым словам, обратным ссылкам и другим факторам. Они определяют, какие результаты отображаются, когда кто-то вводит запрос. Алгоритмы часто отдают приоритет массовым сайтам, которые могут исключать контент LGBTQ +.
Например, алгоритм Google PageRank ранжирует страницы на основе популярности и релевантности ссылок, в то время как Yahoo! Поиск использует логическую логику для извлечения документов из индекса. Хотя эти методы обеспечивают актуальность, они также могут привести к недостаточной представленности меньшинств.
Рекомендательные системы - это программы, предлагающие элементы, связанные с предпочтениями или поведением пользователя. Их можно найти в платформах eCommerce, стриминговых сервисах, новостных лентах и социальных сетях. Эти алгоритмы анализируют пользовательские данные, такие как отметки «Нравится», клики, перепосты, и истории посещений для персонализации пользовательского опыта.
Однако они могут укрепить стереотипы о сексуальности, гендерная идентичность и отношения, за исключением странных перспектив.
Например, в Ленте новостей Facebook отображаются публикации, соответствующие интересам пользователя, игнорирование альтернативных точек зрения.
Модерация содержимого относится к процессу рецензирования, удаление и регулирование пользовательского контента, в частности изображений, видео и комментариев. Он направлен на предотвращение разжигания ненависти, преследования, насилия и незаконной деятельности, но также может подавлять выражение ЛГБТК +. Модераторы используют автоматизированные инструменты, такие как модели машинного обучения, для выявления оскорбительных выражений и наготы, что приводит к удалению квир-контента. Платформы социальных сетей могут цензурировать определенные термины, такие как «транс» или «гей», что ограничивает представление.
В заключение, алгоритмы, системы рекомендаций и модерация контента формируют видимость и маргинализацию квир-голосов в Интернете. Они могут исключить различные перспективы, расставляя приоритеты на основных сайтах, укрепляя стереотипы и подавляя выражение ЛГБТК +. Совершенствование этих систем требует сотрудничества между разработчиками, исследователями, политиками и сообществами для содействия инклюзивности и разнообразию в Интернете.
Как алгоритмы, системы рекомендаций и модерация контента формируют видимость и маргинализацию квир-голосов в Интернете?
Алгоритмы - это автоматизированные наборы инструкций, которые помогают организовать информацию и принимать решения на основе вводимых данных. Рекомендательные системы в значительной степени полагаются на алгоритмы, и они помогают людям находить актуальный и интересный контент, предлагая похожие видео или статьи на основе их предыдущего выбора. Под модерацией контента понимается процесс отсеивания неугодных материалов из социальных сетей, таких как YouTube, Twitter, Facebook и т.д.