Интернет становится все более важным аспектом повседневной жизни, особенно для ЛГБТК + лиц, которые могут столкнуться с дискриминацией и предрассудками в физических пространствах.
Однако, несмотря на усилия по созданию более инклюзивных онлайн-пространств, остается риск того, что алгоритмическая предвзятость может усилить гетеронормативные предположения и способствовать неравенству. В этой статье будет рассмотрено, как алгоритмы могут тонко отдавать предпочтение цисгендерным и гетеросексуальным людям, даже в виртуальных средах, предназначенных для того, чтобы радушно относиться ко всем идентичностям. Для этого в нем будет обсуждаться концепция предубеждений и то, как они могут проявляться в цифровых платформах, анализировать тематические исследования из популярных приложений, таких как Grindr и OkCupid, и рекомендации по созданию более равноправных онлайн-пространств для всех.
В целом, эта часть стремится осветить проблемы, с которыми сталкивается квир-сообщество при навигации по цифровым знакомствам и социализации, и пропагандировать большую осведомленность и действия. Понимая, как действуют предубеждения, мы можем работать над созданием более инклюзивного онлайн-опыта, способствующего справедливости и равенству для всех.
Алгоритмы являются важными инструментами, используемыми многими веб-сайтами и приложениями для сортировки информации, облегчения общения и оптимизации работы пользователей. Они включают набор инструкций или правил, которые направляют машины через определенные задачи, что делает их полезными для автоматизированных процессов, таких как прогнозирование результатов поиска, ранжирование продуктов на основе оценок клиентов или курирование персонализированных новостных лент. Хотя эти системы могут быть невероятно полезными, они также несут в себе потенциал предвзятости - непреднамеренных, но распространенных предпочтений, которые могут несправедливо предоставить преимущество одним группам над другими. Например, с точки зрения онлайн-знакомств алгоритм может расставить приоритеты в профилях с определенными ключевыми словами, изображениями или характеристиками, что приведет к совпадениям, отражающим нормативные представления о поле, сексуальности, расе или типе тела. Когда эти предположения закодированы в программное обеспечение, разработанное для всех, они могут иметь далеко идущие последствия для тех, кто ищет связи вне традиционных норм.
Одним из известных примеров является Grindr, популярное приложение среди геев, которое столкнулось с критикой за его предполагаемый расизм и эйджизм. Согласно отчету журналиста Майкла Келли за 2018 год, пользователи могут получать меньше сообщений, если они обладают «женственными» характеристиками или старше 35 лет. Это говорит о том, что алгоритмы Гриндра благоприятствуют определенным физическим атрибутам, в то же время исключая другие, основанные на произвольных критериях. Точно так же OkCupid был обвинен в отображении расово предвзятых результатов в результатах сопоставления, что побудило компанию принести извинения и изменить свой алгоритм для решения этой проблемы. В обоих случаях подчеркивается, что кажущаяся нейтральной технология может увековечить дискриминацию и стирание, что приводит к тому, что некоторые пользователи чувствуют себя маргинализированными или отверженными в другой прогрессивной среде.
Чтобы создать более справедливое цифровое пространство, разработчики должны предпринять шаги для выявления и устранения предубеждений в своих алгоритмах. Одна стратегия включает в себя диверсификацию наборов данных, используемых для обучения моделей машинного обучения, гарантируя, что широкий спектр идентичностей, опыта и перспектив определяют процессы принятия решений. Другой подход заключается в содействии подотчетности посредством обратной связи и вовлечения сообщества, запрашивая информацию от пользователей, чтобы гарантировать, что алгоритмы соответствуют потребностям и предпочтениям всех людей.
Наконец, компании должны инвестировать в антидискриминационное образование и поддержку сотрудников, работающих на этих системах, предоставляя им возможность распознавать и исправлять потенциальные предубеждения до того, как они причинят вред. Принимая активные меры, подобные этим, мы можем бороться с коварными эффектами алгоритмической предвзятости и способствовать инклюзивности на онлайн-платформах.
Могут ли алгоритмические смещения тонко усиливать гетеронормативные предположения даже в онлайн-пространствах, предназначенных для инклюзивности?
Хотя многие онлайн-пространства в настоящее время намеренно создаются с акцентом на инклюзивность, есть свидетельства того, что некоторые из этих платформ все еще могут тонко усиливать гетеронормативные предположения благодаря своему алгоритмическому дизайну. Одним из способов этого может быть включение кодированного языка, который предполагает гендерные нормы в чат-ботах, поисковых системах и других системах искусственного интеллекта.