Logo

ZeroOpposite

Contact Us
Search

探索算法如何延续在线关系提示中反对酷儿声音的压制性规范 cnEN IT FR DE PL TR PT RU AR JA ES

1 min read Queer

互联网因其能够将来自世界各地的人们聚集在一起并创造每个人都可以投票的环境而受到赞誉。不过,情况并非总是如此。控制互联网的算法倾向于重现社会偏见,反对奇怪的声音,限制其可见性并使其难以聆听。在这篇文章中,我们将研究算法如何使这些偏见永久化,以及可以做些什么。

首先,我们定义术语"酷儿"。酷儿是指不认同为异性恋或顺性别的人。这包括女同性恋,男同性恋,双性恋,变性者,非二进制,双性恋和无性恋者等。它还涵盖了将自己标识为泛性,多性,kinki和任何超越传统规范的人。这些群体每天都面临歧视和骚扰,包括在网上。

算法通过扫描文本和分析模板来工作。它们旨在根据用户的需求为用户提供适当的结果。

但是,如果算法训练有素的数据优先考虑直接,白色,男性的观点,则它无法识别奇怪的声音。例如,如果用户寻求"关系建议",则算法可以显示男性撰写的有关女性约会的文章,因为这些文章是最常用的文章。这排除了可能导致错误信息和进一步孤立的奇怪声音。

算法增强社会偏见的另一种方式是定向广告。公司使用算法来分析访问历史和用户行为,以显示适合其兴趣的广告。如果算法将某人标识为自然人,则可以显示婚纱或儿童商品的广告。相反,如果算法将某人标识为酷儿,则可以向他展示LGBTQ+事件或约会网站的广告。这会在异规范性周围产生一种错误的常态感,使陌生人很难相互联系。最后,算法可以促进对陌生人的有害刻板印象。搜索引擎可以提供使关于变性人的负面刻板印象永久化的文章,例如,变性儿童在其性别认同中感到困惑,或者变性人固有地具有危险性。这证实了这样的想法,即成为酷儿是不正常的,应该避免。

那么,我们如何解决这个问题?一种解决方案是使用于训练算法的数据多样化。像Google这样的公司已朝着这个方向迈出了一步,包括在搜索结果中显示更多样化的图像,并添加标签以识别LGBTQ+内容。不过,这本身并不能解决问题。酷儿的声音需要主动搜索并包含在在线空间中。这意味着创建特定于酷儿的平台,在那里他们可以自由地分享自己的观点,而不必担心受到审查或歧视。这也意味着鼓励盟友在社交媒体和其他地方放大奇怪的声音。总之,算法不是中性的;它们反映了有意识和无意识的社会偏见。认识到这一点,我们可以采取行动,使互联网成为所有人的安全空间,无论他们的性取向或性别认同如何。让我们共同努力,创造一个每个人都有声音、听到和尊重的世界。

算法如何再现网上对酷儿声音的社会偏见?

算法可能会增加在线平台上反对酷儿声音的社会偏见,因为它们经常接受反映异规范观点和规范的数据培训。这意味着算法可能很难将内容识别并归类为酷儿,这可能导致其被遗漏或呈现不足。