Logo

ZeroOpposite

Contact Us
Search

研究社交媒体算法中的性别偏见和LGBT+边缘化 cnEN IT FR DE PL TR PT RU AR JA ES

1 min read Queer

算法在塑造我们如何关注和与数字世界互动方面发挥着越来越重要的作用,包括Facebook、Twitter、TikTok、Instagram和YouTube等社交媒体平台。这些算法旨在根据其相关性和受欢迎程度来提升帖子,这通常会导致某些观点的增强,同时使其他人沉默。这种趋势可能对边缘群体产生严重影响,包括来自少数族裔社区的人,他们可能面临在线歧视、骚扰和审查。一个这样的群体是LGBTQ+社区,他们的声音常常被静音或忽视,转而支持更主流的前景。在这篇文章中,我们将研究算法如何再现边缘化网络酷儿声音的社会偏见,特别关注性别认同和性取向的情况。问题始于大多数社交媒体平台要求用户在创建帐户时选择性别。虽然这似乎是无害的,但它实际上强化了这样的观念,即只有两个性别--男性和女性--排除了非二进制的人和那些既不认同也不认同的人。然后,由于该算法偏爱符合多数观点的帖子,从而使这种偏见永久化,这意味着非二进制内容可能会被抑制。例如,如果有人搜索"性别",他们可能会看到有关跨性别问题或代词讨论的文章,但没有更多。同样,寻找"性取向"会产生与异性恋,一夫一妻制和婚姻有关的结果,但几乎没有其他结果。

算法再现社会偏见的其他方式是内容建议。当用户处理与性行为或亲密关系有关的内容时,算法倾向于优先考虑反映传统规范的帖子,例如直接关系,一夫一妻制,甚至涉及顺性别个性的色情内容。结果,奇怪的声音可能难以获得动力,而另类前景则沉默。这可能对寻求支持、建议或联系的人以及试图提高认识和知名度的LGBTQ+社区产生严重影响。

最后,算法也倾向于偏爱耸人听闻或两极分化的内容,这意味着挑战性、性和人际关系传统观点的帖子可能不会像主流观点那样受到关注。这种偏见可能会进一步边缘化酷儿的声音,因为他们可能很难接触到他们最接近的圈子之外的观众。最后,算法在形成在线话语方面发挥着重要作用,包括我们谈论性别认同和性取向的方式。通过重现比多数观点具有优势的社会偏见,这些算法可以使少数群体的声音沉默并限制信息的获取。因此,我们必须努力创建支持所有身份和观点的更具包容性的平台。

算法如何再现在线酷儿声音边缘化的社会偏见?

算法是旨在根据一组规则和数据解决特定问题的计算机程序。他们可以从过去的经验中吸取教训,并随着时间的推移改善决策过程。Facebook和Twitter等社交媒体平台使用算法根据用户的兴趣,历史和互动向用户推荐内容。当这些算法以有偏见的数据进行训练时,它们可以复制社会偏见,这些偏见通过在酷儿声音之上推广异规范内容来边缘化互联网上的酷儿声音。