人工智能(AI)在从医疗保健到金融和娱乐等各个领域都取得了重大进展。但是,当涉及对女同性恋,男同性恋,双性恋,变性者(LGBT)的偏见时,它也提出了独特的问题。由于AI算法旨在基于数据进行培训和基于模式的决策,因此如果它们不完整,有偏见或具有误导性,则它们可以继承来自这些数据的偏差。这意味着AI系统可以延续对LGBT人口的陈规定型观念和偏见,从而在就业,住房,教育和医疗保健等领域产生不平等的结果。为了确保所有人的公平结果,开发人员必须实施道德框架,以促进公平和包容性。这些结构包括若干机制,包括代表性、缓解、审计、监测和问责制。通过实施这些机制,开发人员可以创建不歧视LGBT人群并为他们提供平等机会的AI系统。首先,开发人员必须确保其数据集中的LGBT代表性足够。如果LGBT人群在用于学习AI模型的数据中代表性不足,那么该系统很可能会反映这些偏见,并且无法准确反映人口的多样性。因此,开发人员必须与不同的团体合作,收集包括LGBT人群在内的准确和具有代表性的数据。他们还必须避免在代码中使用性别特定的代词,而是使用非二进制语言,例如"他们/他们",从而使系统更具包容性。其次,开发人员可以采用数据清除和重新调整等技术,以尽量减少对LGBT人的偏见。数据清理涉及删除任何可能导致歧视的信息,而过多的抽样会增加数据中代表性不足的组的实例数量。这样可以确保系统以相同的方式识别和代表所有人。例如,如果模型是在只有5%的图像包含同性恋夫妇的数据集中训练的,则可以将其解释为异常或不寻常,从而导致错误的决定。第三,开发人员可以使用可解释的AI(XAI)等技术定期监视其算法的性能。XAI使用可视化和其他工具来显示算法如何做出决定,从而使开发人员能够识别可能影响特定组的任何模式或偏见。这样,他们就可以迅速发现和纠正系统中的任何不公正现象。最后,开发人员可以对其系统的结果负责。他们必须跟踪准确性、公平性和包容性等指标,并公开公布结果,使其他人能够评估他们的进展情况。此外,他们可以创建政策和程序,以确保透明度,并在出现问题时及时解决问题。最后,在人工智能发展中引入道德框架对于确保包括男女同性恋、双性恋和变性者在内的所有群体的公平结果至关重要。开发人员必须充分代表不同的组,清除数据以消除偏见,使用冗余样本来平衡视图,使用XAI控制系统性能,并对结果负责。这些机制将有助于建立不歧视LGBT人群并为他们提供平等机会的AI系统。
人工智能中有哪些机制助长了对男女同性恋、双性恋和变性者群体的偏见,开发者如何能够实施道德框架以确保公平结果?
人工智能(AI)系统被发现对女同性恋、男同性恋、双性恋和变性者(LGBT)有偏见,常常导致歧视性结果。这在很大程度上是由于对数据集的依赖性,这些数据集不能充分代表这些组或偏见本身。