Сексуальность, гендерная идентичность и статус отношений являются личными характеристиками, которые могут быть выражены с помощью языка, изображений и видео.
Однако не существует единого стандарта того, как эти идентичности представляются в Интернете, что приводит к искажению информации и дискриминации маргинальных групп, таких как ЛГБТК-сообщество. Цифровые платформы становятся все более популярными, позволяя людям во всем мире подключаться и делиться своим опытом без географических ограничений. К сожалению, этот прогресс сопровождался преследованиями, ненавистническими высказываниями и кибербуллингом, особенно в отношении сексуальных меньшинств, которые могут столкнуться с социальной стигмой и отсутствием представительства. Политика модерации контента и алгоритмические структуры играют решающую роль в определении того, какой контент разрешен в цифровых пространствах и кто его видит, но они часто не могут адекватно защитить меньшинства. Для повышения безопасности и вовлеченности могут быть реализованы следующие решения:
Цифровые платформы должны внедрять четкие руководящие принципы приемлемого поведения, включая четкие правила о разжигании ненависти и домогательствах. Эти рекомендации должны последовательно применяться всеми пользователями независимо от известности или власти. Платформы также должны создавать инструменты отчетности пользователей, которые позволяют жертвам легко помечать оскорбительные сообщения и упрощают им поиск поддержки.
Следует разработать алгоритмические структуры, способствующие инклюзивному представительству меньшинств и маргинальных групп. Это включает в себя создание алгоритмов поиска, которые отдают приоритет создателям разнообразного контента, рекомендуют пользователям безопасный контент на основе их предпочтений и интересов и продвигают позитивные сообщения. Системы искусственного интеллекта также могут обнаруживать оскорбительные комментарии и помечать их для проверки перед публикацией.
Платформы могут сотрудничать с правозащитными организациями ЛГБТК, чтобы предоставлять ресурсы и обучать создателей контента тому, как точно представлять себя в Интернете и избегать искажений. Программы обучения должны учитывать взаимосвязь между гендерной идентичностью, расой, инвалидностью и другими идентичностями, которые часто упускаются из виду при обсуждении безопасности в Интернете.
Как цифровые платформы, политика модерации контента и алгоритмические структуры влияют на преследование и представительство ЛГБТК-людей, и какие существуют решения для повышения безопасности и интеграции?
В последние годы в Интернете участились случаи преследования представителей ЛГБТК-сообщества. Отчасти это связано с растущим присутствием платформ социальных сетей и их алгоритмов, которые продвигают контент на основе вовлеченности, а не качества. Кроме того, политики модерации контента часто не могут адекватно решить уникальные проблемы, с которыми сталкивается эта группа населения. В результате многие ЛГБТК-люди чувствуют себя небезопасными и непредставленными в онлайн-пространствах.