算法偏差是用于根据数据集做出决策或预测的算法中存在的无意或故意偏见。当某些组在这些数据集中表示不足时,可能会发生这种情况,从而导致偏见结果。
如果算法是根据一般是白人和男人的数据训练的,可能会导致妇女和有色人种的偏见结果。
从Internet上奇怪的可见性和刻板印象的角度来看,算法偏见在塑造奇怪身份的表示和感知中起着重要作用。奇怪的人经常因其身份而面临刻板印象和误解,这可能导致他们被排除在主流话语之外。
这些刻板印象还可以通过搜索引擎、社交媒体供稿和其他依赖算法建议的在线平台的结果使自己永存。本文将探讨算法偏见导致该问题的一些方式。算法偏见增强酷儿隐形性的方法之一是它对搜索引擎结果的影响。当某人搜索与LGBTQ+问题有关的信息时,他们可能会找到信息过时或不准确的网站,甚至是包含仇恨言论或有害定型观念的文章。这可能会造成一个恶性循环,人们只看到网上对奇怪个性的负面看法,并暗示他们在社会中没有地位。
由于许多酷儿社区历来被边缘化,他们缺乏必要的资源来确保他们在谷歌或Bing等主要搜索引擎中的代表性。如果没有足够的代表,这些社区对于许多在线寻找有关他们的信息的人来说仍然是不可见的。算法偏见也可能有助于传播关于陌生人的有害定型观念。
当算法将某些类型的内容优先于其他类型的内容时,例如涉及顺性别白人男性进行同性恋恐惧症的视频,这可能会使这种行为正常化并使其比实际情况更容易接受。对于年轻的陌生人来说,这种偏见可能特别成问题,他们可能无法获得其他地方有关其个性的准确信息。它还创造了一个环境,在这个环境中,陌生人在网上自由表达自己感到不安全,因为害怕成为仇恨团体或巨魔的目标。算法偏见可以延续一种观念,即奇怪的人比异规范的人更不值得代表。当像YouTube这样的平台仅根据观看历史而不是实际相关性或兴趣水平推荐类似的内容时。通过根据已经观看的内容而不是任何人真正想要观看的内容推荐内容,它强化了酷儿内容对于主动搜索不够重要的想法。这促进了一个循环,用户继续消费主流媒体,而从未在舒适区之外遇到不同的观点或叙述。算法偏见可能导致在约会应用程序或其他社交媒体上歧视陌生人。许多流行的应用程序使用算法根据共同的兴趣或外观选择人员,这可能会排除不属于这些类别的陌生人。
某些应用程序使用用户配置文件和活动历史记录中的数据来提供基于定型特征的匹配,进一步将不符合这些期望的人边缘化。算法偏见只是导致网络酷儿隐形和刻板印象的一个因素;然而,它在塑造这些问题的表现方式方面发挥了重要作用。认识到这一挑战,我们可以开始努力为包括奇怪身份在内的所有身份创建更具包容性和公平的在线空间。
算法偏见如何使互联网上的酷儿隐形或刻板印象永久化?
根据研究和调查,可以看出,由于同性恋恐惧症,跨性别恐惧症和西塞克斯主义等各种原因,陌生人在使用社交媒体平台时经常遇到问题。一个这样的问题是算法偏差的存在,它被定义为算法延续刻板印象并增强对陌生人现有偏见的趋势。