Растущая популярность искусственного интеллекта (ИИ) оказывает значительное влияние на то, как люди взаимодействуют друг с другом в Интернете, особенно через платформы социальных сетей. Одна из областей, где это наиболее очевидно, заключается в алгоритмах рекомендаций, используемых для персонализации опыта пользователей на основе их предпочтений и поведения.
Однако эти алгоритмы могут также иметь непреднамеренные последствия, которые ограничивают разнообразие и инклюзивность, в том числе, когда речь идет о представлении лесбиянок, геев, бисексуалов, трансгендеров, квир/анкетирование (ЛГБТК) и других маргинальных групп. В этой статье будет рассмотрено, как рекомендации на основе ИИ влияют на представительство ЛГБТК в социальных сетях, какие этические последствия существуют для пострадавших и как повышение прозрачности и регулирования может улучшить справедливость и инклюзивность.
Одним из примеров системы рекомендаций на основе ИИ является функция «люди, которых вы можете знать» на Facebook. Когда пользователь добавляет друга или следит за кем-то новым, Facebook анализирует его активность и предлагает других, кто разделяет схожие интересы. Хотя этот алгоритм был полезен для многих, он вызвал обеспокоенность у некоторых ЛГБТК-людей, которые считают, что им показывают друзей и потенциальные даты, которые не отражают их сексуальную ориентацию или гендерную идентичность.
Например, если человек идентифицирует себя как небинарный, но явно не указывает это в своем профиле, Facebook все еще может показывать им контент от людей, которые идентифицируют себя как мужчины или женщины. Точно так же, если кто-то ищет партнера в своем сообществе, он может не увидеть предложений, которые соответствуют его предпочтениям. Эти ограничения могут привести к ощущению изоляции и разочарования, особенно для тех, кто уже сталкивается с дискриминацией или стигмой, связанной с их сексуальностью или гендерной идентичностью.
Отсутствие прозрачности в отношении того, как работают эти алгоритмы, является еще одной проблемой. Пользователи часто не знают, почему появляются определенные результаты, что затрудняет понимание того, как повлиять на их результаты. Без четких объяснений у пользователей мало возможностей бросить вызов предвзятым или несправедливым практикам. Кроме того, поскольку эти системы полагаются на методы машинного обучения, которые постоянно учатся на поведении пользователей, они могут увековечивать предубеждения, присутствующие в наборах данных, используемых для их обучения, без применения мер подотчетности.
Например, если к большинству постов с тегами геев прикреплены негативные комментарии, алгоритм может связать гомосексуальность с негативностью и соответствующим образом скорректировать. Этот тип предвзятости может еще больше ограничить представительство ЛГБТК, преуменьшая позитивный опыт и укрепляя стереотипы.
Улучшение справедливости и инклюзивности требует повышения прозрачности и регулирования. Платформы социальных сетей должны предоставлять подробную информацию о том, как работают их системы рекомендаций, и позволять пользователям настраивать настройки в зависимости от своих потребностей. Они также должны использовать разнообразные наборы данных при обучении алгоритмов для обеспечения точности и беспристрастности.
Наконец, регулирующие органы должны привлекать компании к ответственности за дискриминационную практику, налагая штрафы или требуя регулярных проверок для оценки соответствия.
Поскольку ИИ становится все более распространенным в социальных сетях, важно учитывать его влияние на маргинальные группы, такие как ЛГБТК-люди. Повышая прозрачность и внедряя соответствующие гарантии, мы можем создать более справедливую онлайн-среду, где каждый человек имеет равный доступ к ресурсам и возможностям. При постоянных усилиях по большей интеграции мы можем использовать технологии, чтобы расширить возможности всех членов нашего общества, а не исключать какие-либо группы на основе идентичности или предпочтений.
Каковы этические последствия систем рекомендаций ИИ в социальных сетях для представительства ЛГБТК и как прозрачность и регулирование могут улучшить справедливость и инклюзивность?
Этические последствия систем рекомендаций ИИ для платформ социальных сетей для представительства ЛГБТК + широко обсуждались учеными, адвокатами и политиками во всем мире. Прозрачность и регулирование имеют решающее значение для повышения справедливости и инклюзивности в этих системах. Одной из основных проблем, с которыми сталкиваются трансгендерные люди при использовании рекомендаций ИИ, является отсутствие представления в данных, используемых для обучения алгоритмов.