Logo

ZeroOpposite

Contact Us
Search

ПОЧЕМУ АЛГОРИТМИЧЕСКАЯ ПРОЗРАЧНОСТЬ ИМЕЕТ РЕШАЮЩЕЕ ЗНАЧЕНИЕ ДЛЯ УЛУЧШЕНИЯ РЕКОМЕНДАЦИЙ ДЛЯ СТРАННЫХ ЛЮДЕЙ? ruEN IT FR DE PL TR PT AR JA CN ES

3 min read Queer

Каковы некоторые этические проблемы, возникающие из-за систем рекомендаций на основе ИИ в социальных сетях в отношении квир-представительства?

Как алгоритмическая прозрачность может улучшить результаты для маргинализированных сообществ?

Нет сомнений в том, что квир-люди сталкиваются с дискриминацией во многих аспектах жизни.

Например, они часто сталкиваются с более высокими показателями проблем психического здоровья, таких как депрессия и беспокойство из-за дискриминации. К сожалению, такая же дискриминация существует и в онлайн-пространствах вроде социальных сетей. Странные люди могут чувствовать себя изолированными и исключенными, если их опыт не соответствует тому, что считается «нормальным» или приемлемым в обществе. Эта изоляция может привести к усилению чувства одиночества и грусти. Одним из способов, которым социальные сети пытаются бороться с этой проблемой, является использование систем рекомендаций на основе искусственного интеллекта, предназначенных для продвижения более разнообразного контента.

Однако, эти системы критиковались за создание дополнительных проблем, поскольку они могут увековечить существующую динамику мощности.

Например, если система искусственного интеллекта рекомендует квир-контент на основе поведения пользователя, это может усилить гетеронормативные ожидания, а не бросить им вызов.

Кроме того, этим системам может не хватать прозрачности в том, как они дают рекомендации. Как алгоритмическая прозрачность может улучшить результаты для маргинальных сообществ, включая странных людей?

Важность алгоритмической прозрачности

Алгоритмическая прозрачность относится к предоставлению пользователям информации о том, почему определенные типы контента рекомендуются им. Без этой информации пользователи могут чувствовать, что платформа манипулирует ими без какого-либо права голоса в этом вопросе. Бывает трудно доверять платформе, когда не знаешь, как работают ее алгоритмы. Прозрачность помогает сформировать доверие между платформой и ее пользователями, что может побудить людей из всех слоев общества регулярно использовать сайт или приложение.

Прозрачность позволяет пользователям видеть, как используются их собственные данные, и потенциально изменять их, если они не согласны с полученными рекомендациями.

Например, если пользователь чувствует, что его queer identity игнорируется или стирается системой, он может захотеть соответственно скорректировать свои настройки. Если пользователь знает, какие факторы влияют на выработку рекомендаций, он также может привлечь платформу к ответственности, если эти факторы неадекватно представляют его интересы или перспективы.

Улучшение представления посредством алгоритмической прозрачности

Существует несколько способов, которыми платформы социальных сетей могут реализовать алгоритмическую прозрачность для улучшения представления маргинализированных сообществ. Один из способов - предоставить четкие рекомендации о том, какой тип контента будет и не будет рекомендован. Это может включать в себя примеры контента ЛГБТК +, который соответствует определенным критериям, таким как представление различных идентичностей, опыта и отношений. Другой метод заключается в создании инструментов для членов сообщества для оценки контента на основе его точности, актуальность и качество, позволяющие странным людям самим формировать алгоритм рекомендаций.

Наконец, платформы социальных сетей должны следить за тем, чтобы их системы рекомендаций учитывали множество факторов при внесении предложений, не только показатели кликов или показатели вовлеченности.

Важно, чтобы эти изменения происходили в контексте более масштабных усилий по борьбе с дискриминацией странных людей в обществе. Платформы должны гарантировать, что они предоставляют безопасные пространства для всех пользователей без токенизации или эксплуатации квир-людей. Кроме того, компаниям необходимо сотрудничать с организациями ЛГБТК +, чтобы выявить пробелы в представительстве и совместно работать над более инклюзивными решениями. Отдавая приоритет разнообразию и вовлеченности на каждом уровне развития, платформы социальных сетей могут создать среду, в которой каждый чувствует себя видимым и ценным тем, кем он является.

Какие этические проблемы возникают из-за систем рекомендаций, основанных на искусственном интеллекте, в социальных сетях в отношении квир-представительства и как алгоритмическая прозрачность может улучшить результаты для маргинализированных сообществ?

Одной из основных этических проблем, возникающих из-за систем рекомендаций, основанных на ИИ, в социальных сетях, является потенциальная дискриминация маргинализированных сообществ. Когда алгоритмы разработаны для изучения предпочтений пользователя и рекомендации контента на основе этих предпочтений, существует риск того, что они могут увековечить вредные стереотипы и предубеждения.