Logo

ZeroOpposite

Contact Us
Search

算法系统能放大或抑制酷儿的声音吗?辩论仍在继续。 cnEN IT FR DE PL TR PT RU AR JA ES

1 min read Queer

算法系统能放大或抑制酷儿的声音吗?计算机科学界多年来一直在讨论这个问题,但仍然没有明确的答桉。一方面,似乎算法可以帮助识别和推动边缘社区,如LGBTQ+社区。另一方面,它们也可能加剧现有的偏见并加剧对这些群体的歧视。算法是旨在解决问题的数学公式。他们接受数据,并根据这些输入产生结果。近年来,它们在金融,卫生,教育和政治等领域变得越来越重要。但是,当涉及到加强或抑制酷儿的声音,他们的作用变得更加复杂。

增强酷儿声音的一种方法是使用推荐系统。这些系统提供文章,视频或其他媒体,用户可能会感到有趣。如果他们注意到人们正在阅读或观看的模式,他们可以调整准则以反映这些兴趣。这可能包括面向查询的内容,否则可能很难找到。不过,这些算法并不总是按预期工作。例如,一些研究表明,如果推荐者使用特定的语言,他们可能会将内容排除在某些作者之外。其他人可能会显示针对顺性别男性的广告,使变性人更难找到相关信息。此外,这些系统可以延续关于性别和性行为的陈规定型观念。他们可能暗示每个人都希望看到关于男人和女人之间浪漫关系的传统观念,这限制了亵渎身份的可见性。同样,他们可以假设所有女性都希望看到化妆课,而忽略了各种美容标准。为了解决这个问题,公司开始开发更具包容性的算法。现在,一些平台在创建内容建议时考虑了种族,种族和残疾等因素。其他用户允许用户通过指定标识符类别来自定义其首选项。不过,还有很多改进的余地。算法在网上骚扰陌生人方面也起着重要作用。仇恨言论、doxing(公开分享个人信息)和其他形式的虐待在社交媒体上变得司空见惯。这些平台通常依靠机器学习算法来标记潜在的冒犯性帖子。但有时他们不承认有害的言行。此外,算法系统可以间接促进LGBTQ+社区的歧视。例如,招聘站点经常使用关键字将候选人映射到开放位置。如果这些关键字排除了与非二元或多元身份相关的术语,则可能导致偏差。一般来说,算法系统在增益或抑制酷儿声音方面不能完全中立。尽管它们具有支持多样性的潜力,但必须仔细设计和测试它们,以防止意想不到的后果。决策者和决策者必须确保负责任和公平地使用这些工具。

算法系统在放大或干扰酷儿声音时可以保持中立吗?

在人们经常面临歧视,偏见和主流社会排斥的情况下,加强酷儿声音多年来一直是一个持续存在的问题。尽管该技术似乎是解决该问题的有希望的解决方案,但有理由相信它不能完全中立地做到这一点。算法系统是由具有自己的偏见和信念的人开发的,这些偏见和信念可以塑造他们解释数据和做出决策的方式。