Социальные сети стали неотъемлемой частью современной жизни, объединяя людей из всех слоев общества через различные платформы, такие как Facebook, Twitter, Instagram, TikTok, Snapchat и другие.
Эти платформы также вызывают обеспокоенность по поводу их влияния на благополучие общества. Одной из областей, где социальные сети особенно повлияли, является сообщество ЛГБТК +, как положительно, так и отрицательно. Хотя социальные сети могут способствовать странной солидарности, они также создают несколько проблем для их способности к наблюдению, извлечению данных и алгоритмическому стиранию маргинализированных идентичностей. В этой статье будет рассмотрено, как будущие платформы социальных сетей могут решить эту проблему по-другому.
Наблюдение и извлечение данных
Одной из важных проблем социальных сетей является то, что она позволяет компаниям собирать огромные объемы пользовательских данных. Эти данные включают личную информацию, такую как имя, возраст, местоположение, интересы, историю посещений, схемы общения и многое другое. Компании используют эти данные для анализа поведения пользователей и таргетирования рекламы на основе их предпочтений. Хотя это может показаться безобидным, это создает риск для конфиденциальности странных людей, которые могут столкнуться с дискриминацией или насилием из-за своей сексуальной ориентации или гендерной идентичности.
Транс-человек, использующий приложение для знакомств, может быть удален, если его фото в профиле неправильно представлено алгоритмом. Точно так же гей в консервативной стране может быть арестован за свои сексуальные предпочтения, если власти обнаружат его онлайн-активность. Кроме того, компании могут продавать данные пользователей третьим лицам, раскрытие частной информации потенциальным хакерам или злоумышленникам.
Алгоритмическое стирание маргинальных идентификаторов
Алгоритмы социальных сетей предназначены для того, чтобы рекомендовать контент, с которым пользователи могут взаимодействовать.
Эти алгоритмы часто укрепляют стереотипы и исключают маргинальные голоса из разговора.
Алгоритм, разработанный для показа гетеронормативного контента, может не отображать сообщения о полиаморном или небинарном опыте. В результате странные люди могут чувствовать себя изолированными и невидимыми, что приводит к чувству одиночества и разобщенности. Более того, алгоритмы могут продвигать вредные идеологии, такие как slut-shaming или трансфобия, увековечивая негативные стереотипы. Это стирание маргинальной идентичности может привести к усилению дискриминации и насилия в отношении странных людей.
Будущие платформы
Для решения этих проблем будущие платформы социальных сетей должны уделять приоритетное внимание безопасности и конфиденциальности пользователей. Компании должны внедрить более строгие меры безопасности для защиты данных пользователей, включая шифрование и двухфакторную аутентификацию. Они также должны разработать политику предотвращения дискриминационного поведения на своих платформах и наказать тех, кто их нарушает.
Алгоритмы социальных сетей должны быть прозрачными и подотчетными, позволяя пользователям понять, как они работают, и бросить вызов предубеждениям.
Платформы должны активно искать различные перспективы и содействовать инклюзивности с помощью практики программирования и модерации.
Социальные сети оказали как положительное, так и отрицательное влияние на сообщество ЛГБТК +. Хотя он может способствовать солидарности, объединяя единомышленников, он также представляет риски из-за наблюдения, извлечения данных и алгоритмического стирания маргинализированных идентичностей. Чтобы смягчить эти проблемы, будущие платформы социальных сетей должны уделять приоритетное внимание безопасности пользователей, содействовать инклюзивности и нести ответственность за свои действия. Тем самым они могут создать более справедливое и безопасное пространство для всех пользователей, независимо от сексуальной ориентации или гендерной идентичности.