Системы рекомендаций ИИ на социальных платформах становятся все более популярными среди пользователей ЛГБТК, стремящихся связаться с другими, кто разделяет схожие интересы и опыт.
Однако эти системы также создают значительные проблемы для усилий по созданию сообщества из-за их склонности к усилению дискриминационных эхо-камер, которые маргинализируют странные голоса. Пользователи Queer могут столкнуться с гомофобным и трансфобным контентом, который нормализует предубеждения против них, одновременно получая рекомендации относительно контента, который не имеет значения или неточен в отношении их жизненного опыта. Это может привести к ощущению изоляции, разочарования и разочарования в онлайн-сообществах.
Одним из потенциальных решений является алгоритмическая прозрачность, которая включает предоставление пользователям доступа к данным и алгоритмам, используемым для выработки рекомендаций. Понимая, как работают эти системы, пользователи могут лучше контролировать работу в Интернете и лучше адаптировать ее к своим потребностям.
Кроме того, повышенная прозрачность может помочь выявить ошибки в самой системе и побудить внести необходимые изменения для их устранения.
Например, если пользователи постоянно получают рекомендации по содержанию о гетеронормативных отношениях, это может указывать на необходимость корректировки параметров алгоритма.
Однако, реализация алгоритмической прозрачности не лишена собственного набора проблем. Хотя это позволило бы пользователям больше возможностей для присутствия в Интернете, это также потребовало бы значительных усилий и ресурсов от компаний социальных сетей. Более того, такая прозрачность может происходить за счет конфиденциальности пользователей, поскольку пользователи могут не захотеть предоставлять личную информацию, которая может быть использована третьими лицами для таргетирования рекламы или манипулирования общественным мнением.
В заключение, системы рекомендаций ИИ на социальных платформах играют важную роль либо в усилении квир-голосов, либо в усилении дискриминационных эхо-камер. Алгоритмическая прозрачность может улучшить результаты для пользователей ЛГБТК, позволяя им контролировать свой онлайн-опыт, одновременно привлекая компании социальных сетей к ответственности за любую предвзятость в своих рекомендациях.
В конечном счете, достижение баланса между конфиденциальностью пользователей, усилиями по созданию сообщества и точным представлением будет зависеть от коллективных усилий пользователей, компаний социальных сетей и политиков.