В современную цифровую эпоху платформы социальных сетей стали неотъемлемой частью нашей жизни, позволяя пользователям общаться и делиться своими мыслями, опытом и мнениями с другими людьми по всему миру.
Однако эти платформы также управляются сложными алгоритмами, которые определяют, какой контент просматривается и кем. Эти алгоритмы могут быть разработаны для определения приоритетов определенных типов контента, таких как те, которые генерируют больше вовлеченности или способствуют увеличению доходов от рекламы, но они также могут усиливать существующие социальные предубеждения. Это вызывает обеспокоенность по поводу того, как алгоритмические системы могут влиять на голоса ЛГБТК, особенно с учетом исторической маргинализации странных людей в обществе.
Одной из областей, где это особенно касается, является представление идентичности ЛГБТК и перспектив в социальных сетях. Исторически в основных средствах массовой информации доминировали гетеронормативные нарративы, которые изображают цисгендерных, белых, трудоспособных, нейротипичных индивидуумов как норму. Алгоритмы, которые расставляют приоритеты в контенте на основе популярности или вовлеченности, могут усилить эту предвзятость, ограничивая видимость для недопредставленных групп, таких как ЛГБТК-люди. Это может привести к стиранию важных историй, перспектив и опыта из публичного дискурса, что еще больше усугубит маргинализацию этих сообществ.
Чтобы бороться с этим, платформы социальных сетей должны активно работать над включением различных голосов в свои алгоритмические процессы проектирования. Это включает в себя наем разнообразной команды инженеров, разработчиков и специалистов по анализу данных, которые могут гарантировать, что инклюзивные перспективы представлены в разработке алгоритмов. Это также означает создание алгоритмов, которые отдают приоритет недопредставленным группам, таким как те, которые идентифицируются как транс или небинарные.
Кроме того, платформы должны предлагать пользователям инструменты и ресурсы для настройки их каналов и обнаружения контента за пределами их непосредственных социальных сетей.
Хотя алгоритмические системы могут способствовать большему разнообразию и вовлеченности, они также способны воспроизводить структурные искажения.
Например, алгоритмы, разработанные для выявления языка ненависти или оскорбительной лексики, могут непропорционально нацеливаться на сленговые термины, используемые квир-людьми, что приводит к цензуре или замалчиванию аутентичного опыта. Точно так же алгоритмы, разработанные для фильтрации порнографического контента, могут непреднамеренно блокировать посты о сексуальном образовании, репродуктивном здоровье или других темах, связанных с сексуальностью. Эти проблемы подчеркивают необходимость тщательного рассмотрения того, как алгоритмы влияют на маргинализированные группы населения и как их можно скорректировать, чтобы минимизировать негативные последствия.
В заключение, хотя алгоритмы социальных сетей, основанные на искусственном интеллекте, могут способствовать большей представленности и видимости для голосов ЛГБТК, они также несут значительные риски. Платформы должны уделять приоритетное внимание инклюзивности в своем развитии и прилагать постоянные усилия для устранения предвзятости в своих системах. Тем самым мы можем создать более справедливый цифровой ландшафт, где все голоса будут услышаны и оценены.
Каковы последствия алгоритмов социальных сетей, основанных на искусственном интеллекте, для представления, видимости и стирания голосов ЛГБТК, и как эти технологии могут воспроизводить структурные предубеждения?
Одной из наиболее серьезных проблем, с которыми сталкиваются лесбиянки, геи, бисексуалы, трансгендеры, квиры (ЛГБТК), является их недостаточная представленность в основной культуре. Это отсутствие представительства привело к стиранию историй, опыта и перспектив этих групп, которые в значительной степени игнорировались обществом в целом.