算法如何放大边缘化网络酷儿声音的社会偏见?世界各地的人们越来越多地使用互联网,使他们能够与具有相似兴趣和经验的其他人建立联系。然而,尽管取得了这些进展,一些群体仍因其身份而面临歧视和偏见。酷儿个人是受这些偏见影响最严重的人之一,因为社会经常认为他们偏离规范。因此,他们正在努力寻找可以公开表达自己的地方,而无需受到谴责和嘲笑。在这里,算法开始发挥作用;它们创造了联系的机会,但也延续了有害的陈规定型观念和排斥。这些算法强化了社会偏见,这些偏见通过有针对性的广告、算法过滤和个性化的搜索结果在网上边缘化酷儿的声音。目标广告包括使用用户数据显示适合特定人群的广告。例如,如果一家公司想销售与性别认同有关的产品,则可以根据跨性别用户的访问历史和社交媒体活动来针对他们。尽管这种方法增加了过渡的频率,但也强化了某些群体不如其他群体理想的观念。它发出了一个信息,即变性是特殊或利基的东西,而不是日常生活的一部分,这助长了耻辱和边缘化。约会应用程序也是如此,它们根据性取向选择用户;虽然这些平台为LGBTQ+人与志同道合的伴侣会面提供了安全的空间,但他们进一步隔离了可能不知道或不确定非异性恋关系的异性恋者。算法过滤依赖于机器学习技术来为每个用户的喜好策划内容。不幸的是,此过程可能会排除不同的视角,因为算法假设观众希望根据与类似材料的先前交互来观看。例如,该算法可能仅向普通观众推荐发布故事的视频,因为这些都是他们过去观看的。然后,酷儿个体在寻找此类主题时变得不可见,因为算法表明他们已经知道了他们需要了解的一切。这创造了一个循环,只有顺性别、异性恋的叙述在网上仍然可见,沉默了替代声音。个性化搜索结果的工作方式类似,显示出最符合个人兴趣的结果,而不是为不同的视角提供平等的机会。如果有人寻求"女同性恋爱情故事",他们很可能会看到涉及白人女同性恋和顺性别女性的文章,而不是各种表现形式。这种例外强化了这样的观念,即只有通过将可见度限制在核心理想之外,才能满足社会的期望,才能接受怪异。最后,算法强化了社会偏见,这些偏见通过有针对性的广告、算法过滤和个性化的搜索结果使互联网上的酷儿声音边缘化。这些过程创造了一个只有某些身份可见的循环,增加了对那些不符合传统规范的人的污名和歧视。为了解决这个问题,公司必须确保跨平台的包容性,提供适合所有人口特征的资源,并避免假设用户希望看到什么。
算法如何放大边缘化网络酷儿声音的社会偏见?
人们经常认为该技术是公正的,但它反映了人类的价值观和信念。我们与之互动的互联网平台背后的算法定期从用户的行为和偏好模式中学习。例如,如果某些类型的内容和交流方式在异性恋者中比其他异性恋者更受欢迎,则这些模式将反映在这些平台使用的推荐系统中。