Алгоритмическое смещение - это термин, используемый для описания тенденции алгоритмов или наборов инструкций, которые используются для принятия решений на основе входных данных, для получения результатов, которые несправедливо благоприятствуют определенным группам людей по сравнению с другими. Это может произойти во многих контекстах, в том числе когда речь идет о социальных сетях, таких как Facebook и Twitter.
Например, если алгоритм разработан для рекомендации постов, основанных на активности пользователей, он может в конечном итоге рекомендовать посты от прямых, цисгендерных мужчин чаще, чем от женщин или ЛГБТ-людей. Это может создать петлю обратной связи, когда пользователи видят меньше постов от этих маргинальных групп, что приводит к еще меньшему взаимодействию с ними, что усиливает предвзятость алгоритма.
Однако когда речь заходит о приложениях для знакомств, эта проблема становится гораздо более коварной. Приложения для знакомств в значительной степени полагаются на алгоритмы для подбора пользователей на основе их предпочтений, но они также собирают много личных данных о пользователях. Эти данные могут включать такие вещи, как возраст, пол, сексуальная ориентация, местоположение и даже политическая принадлежность. Используя эти данные, приложение может попытаться предсказать, какие именно совпадения будут интересны пользователям.
Однако, если приложение предвзято по отношению к ЛГБТ-людям, оно может показать им меньше потенциальных партнеров, которые разделяют их сексуальность, что может ограничить их возможности и привести к разочарованию.
Проблема выходит за рамки простого знакомства с приложениями. На самом деле, было обнаружено, что алгоритмическая предвзятость проникает во многие аспекты повседневной жизни, от систем поиска работы до кредитных баллов. И хотя некоторые из этих предубеждений могут показаться доброкачественными, они могут иметь серьезные последствия для ЛГБТ-пользователей.
Например, алгоритм, который благоприятствует прямым пользователям в системе поиска работы, может затруднить для ЛГБТ-людей поиск возможностей трудоустройства. Точно так же алгоритм, который дискриминирует трансгендерных людей при определении кредитоспособности, может затруднить им получение кредитов или других форм финансовой помощи.
Одним из способов борьбы с алгоритмической предвзятостью является обучение самих алгоритмов. Системы машинного обучения можно научить распознавать закономерности и принимать решения на основе этих закономерностей, поэтому разработчики могут создавать программы, которые призваны минимизировать предвзятость. Другим вариантом является обеспечение того, чтобы данные, используемые для управления этими алгоритмами, были разнообразными и репрезентативными для всех групп людей.
Наконец, пользователи могут высказываться, когда видят случаи алгоритмической предвзятости, и сообщать о них ответственным компаниям. Работая вместе, мы можем создать более справедливую онлайн-среду для всех.
Как алгоритмическая предвзятость повторяет дискриминацию пользователей ЛГБТ в автономном режиме?
Алгоритмическая предвзятость относится к процессу, с помощью которого компьютерные алгоритмы программируются для принятия решений, которые могут быть предвзятыми в отношении определенных групп людей на основе их расы, пола, сексуальной ориентации, возраста, инвалидности или других факторов. В контексте приложений для онлайн-знакомств это означает, что алгоритм приложения, скорее всего, покажет ЛГБТ-пользователям меньше потенциальных совпадений, чем пользователям, не относящимся к ЛГБТ, даже если у них схожие предпочтения и интересы.