Logo

ZeroOpposite

Contact Us
Search

СЕКСУАЛЬНОСТЬ/СЕКСУАЛИЗАЦИЯ И AI: КАК АЛГОРИТМЫ МОГУТ ПРИВЕСТИ К ПРЕДВЗЯТОСТИ В ОТНОШЕНИИ МЕНЬШИНСТВ ruEN IT FR DE PL TR PT AR JA CN ES

Алгоритмы - это компьютерные программы, которые могут выполнять определенные задачи без участия человека. Они работают, анализируя большие объемы данных и находя закономерности для принятия решений. Эти закономерности могут быть основаны на исторических тенденциях или статистических вероятностях. Алгоритмы использовались для выявления кредитного риска, прогнозирования погоды, оптимизации цепочек поставок, рекомендации музыки, выявления мошенничества и даже диагностики заболеваний.

Однако они также увековечивают социальные предубеждения и дискриминируют группы меньшинств. В этой статье будет изучено, как алгоритмы воспроизводят моральные предубеждения против несоответствующих идентичностей и исследуются способы противодействия этим предубеждениям.

Одним из способов, которым алгоритмы воспроизводят моральные предубеждения, является использование бинарных классификаторов. Бинарные классификаторы делят людей на такие категории, как мужчина/женщина, чёрный/белый, натурал/гей, абед/инвалид и т. д. Затем они присваивают каждой категории набор характеристик, которые могут соответствовать или не соответствовать действительности.

Например, алгоритм, предназначенный для обнаружения преступников, может классифицировать любого человека с татуировками как преступника, независимо от его фактического поведения. Это может привести к непропорциональному нацеливанию на определенные группы, включая тех, кто не соответствует традиционным гендерным ролям.

Еще один способ, которым алгоритмы воспроизводят моральные предубеждения, - это использование машинного обучения. Машинное обучение включает в себя обучение моделей на обширных наборах данных и позволяет им учиться на прошлых ошибках.

Однако если набор данных неполон или смещен в сторону одной группы, модель даст неточные результаты для других групп.

Например, технология распознавания лиц часто ошибочно идентифицирует темнокожих женщин, потому что она была обучена в основном на белых мужчинах. Аналогично, алгоритмы найма могут отдавать предпочтение кандидатам с обычными именами, таким как Джон Смит, а не кандидатам с более этнически звучащими именами.

Для борьбы с этими предубеждениями нам необходимо увеличить разнообразие наборов данных, используемых алгоритмами. Мы должны собирать и анализировать данные от недопредставленных групп, включая цветных людей, ЛГБТК + лиц, иммигрантов, инвалидов и религиозные меньшинства. Мы также должны обучать модели на различных примерах, чтобы они распознавали все типы человеческого опыта.

Кроме того, мы должны проверять существующие алгоритмы на точность и справедливость, гарантируя, что ни одна группа не подвергается дискриминации.

Наконец, мы должны привлекать компании к ответственности, когда их продукты увековечивают вредные стереотипы. Предпринимая эти шаги, мы можем создать более справедливое общество, где каждый человек будет иметь равный доступ к возможностям и ресурсам.

Как алгоритмы воспроизводят моральные предубеждения против несоответствующих идентичностей?

Было показано, что алгоритмы повторяют моральные предубеждения против несоответствующих идентичностей из-за их зависимости от наборов данных, которые часто отражают предрассудки программистов-людей и социальные нормы. Например, при программировании алгоритма для программного обеспечения для распознавания лиц разработчики обычно обучают систему, используя изображения из западных культур, где белые лица представлены чаще, чем другие расы.