Logo

ZeroOpposite

Contact Us
Search

性与人工智能:如何通过有效机制缓解LGBTQ+偏见 cnEN IT FR DE PL PT RU AR JA ES

在考虑人工智能(AI)系统中的潜在偏见时,重要的是要考虑那些可能影响被认定为女同性恋,男同性恋,双性恋,变性者和酷儿/问题(LGBTQ+)的人的偏见。这些偏见可能对他们的安全、隐私、获得医疗保健、就业机会等产生严重影响。但是,有几种机制可以检测,减轻和防止这些偏见在AI系统中永久存在。在这篇文章中,我探讨了这些机制在实践中的有效性。审计是发现AI对LGBT群体偏见的机制之一。这包括验证算法代码和数据源,看看它们是否反映了他们打算服务的人口多样性。例如,开发在线约会应用程序的公司可以聘请一名独立顾问,以评估其算法是否包含与性别认同或性取向有关的术语,这些术语可能会排除某些用户。如果是这样,顾问将建议对算法进行更改,使其更具包容性。另一种检测方法是对不同组进行测试。这项发表在《自然》杂志上的研究表明,研究小组如何使用面部特征测试图像分类模型,发现它根据胡须或耳环等刻板印象对性取向做出不准确的预测。研究结果促使研究人员重新分类具有更大和更具代表性的数据集的模型。另一种解决AI偏见的方法是公平分析。这包括衡量特定决策过程对不同人群的影响。ProPublica的一项研究发现,亚马逊的招聘系统不太可能挑选女性候选人,因为它更喜欢有"行政"字样的简历。通过分析决策过程,研究发现了对妇女的潜在偏见。结果,亚马逊更新了系统,删除了"执行"一词。公平分析还可以用于识别刑事司法、保健和住房等其他领域的偏见。为了缓解AI偏见,一种策略是使用反事实解释。他们解释了为什么做出了具体决定,并提出了可能导致不同结果的替代方案。例如,如果抵押贷款人使用AI来确定信誉,则必须提供对LGBT申请人不利的决定的解释。例如,反事实解释可以说:"如果你的收入高出500美元,那么你将有资格获得这笔贷款。"另一种策略是对输入和算法参数实施限制。例如,银行可以限制在确定贷款资格时使用特定于性别的语言。此外,公司可以采取一些步骤,首先防止人工智能偏见。一种方法是收集有关其用户或客户的人口统计信息。谷歌和Facebook等公司要求其开发者在开发产品时考虑多样性,这有助于确保他们的系统不无意中排除某些群体。另一种策略是在模型培训期间使用不同的数据集来减少刻板印象的风险。最后,公司可以在其AI开发过程中嵌入道德准则,以帮助在整个过程中实现公平和透明。尽管存在这些机制来识别,减轻和防止AI对LGBT群体的偏见,但其有效性取决于几个因素。一些研究表明,审计本身无法完全消除所有形式的歧视,因为偏见可能是微妙的,并且难以确定。其他研究表明,审计可能很有用,但需要机器学习和社会正义方面的专业知识才能有效。反事实的解释可能并不总是准确或全面的,如果限制过于严格,限制可能会导致新的风险。在设计过程中创造包容性还需要资源和人员,他们了解不同的身份如何与技术重叠。一般来说,行业领导者、决策者和利益倡导团体需要不断努力,以确保人工智能系统平等、公平地为所有人服务。

有哪些机制可以识别、减轻和防止人工智能对男女同性恋、双性恋和变性者群体的偏见,以及这些机制在实践中是否有效?

尽管女同性恋,男同性恋,双性恋,变性者(LGBT)社区越来越受欢迎,但人工智能(AI)中仍然存在偏见。这些偏见表现为基于性别认同,性取向,种族,年龄,种族,宗教,外表等的偏见,可以嵌入用于训练算法的教学数据中。不同的研究人员提出了解决针对LGBT人口的AI偏见的不同机制。