人工智能技术改变了公司与客户的工作和互动方式。AI的一种应用是性别识别,它可以根据个人的外表或行为来确定一个人是男性还是女性。但是,人们担心这些系统可能会增加对性别认同和陈规定型观念的社会偏见。这可能对已经面临歧视的边缘群体产生严重影响。本文探讨了AI系统如何在性别认同中增加社会偏见,并讨论了减轻这一问题的方法。首先,AI算法依靠大型数据集来训练自己。这些数据集通常反映了社会中现有的偏见,这意味着它们可以在分类或预测性别认同时使它们永久存在。例如,由于这些媒体中的代表性有限,使用电影和电视节目图像的面部识别软件倾向于错误地将有色女性识别为男性。同样,识别语音模式的语音助手往往低估了女性的声音,因为他们的许多口音和方言都不包括在教学数据中。此外,在在线搜索和社交媒体帖子中使用的文本数据上训练的语言模型也显示出对非二进制个性的偏见。此外,AI算法通过检测数据中的模式来学习。他们使用这些模型进行预测,但是如果数据包含有偏见的信息,则预测也会有偏见。例如,设计用于分析求职申请的人工智能系统可以为女性分配较低的分数,因为它是根据历史数据进行培训的,该数据表明资格较低的候选人主要是男性。卫生、金融和教育等其他领域也是如此。此外,某些人工智能系统可能会根据假定的性别认同产生新的歧视形式。例如,为提供约会网站推荐而编程的虚拟助手可以根据潜在伴侣的性别表达而不是性取向将用户映射到潜在伴侣。这将排除不属于二元类别的变性人。但是,我们可以采取一些步骤来降低人工智能系统中社会偏见增加的风险。一种方法是确保用于教学AI算法的数据反映不同的观点。公司必须与边缘化社区合作,收集更具包容性的数据,并相应调整其算法。他们还必须使用交叉检查和错误分析等技术测试其AI系统,以识别任何无意的偏见。此外,公司应考虑制定保护措施,例如人为检查程序,或为用户提供纠正错误性别识别的选择。最后,尽管AI改变了许多行业,但在性别认同中的应用引起了人们对现有社会偏见持续存在的担忧。通过确保用于教学AI算法的数据反映不同的观点,测试其偏见并制定保护措施,公司可以减轻此问题并使其产品可供所有人使用。
人工智能系统如何在分类或预测性别认同时增加社会偏见?
依靠人类来源数据的人工智能系统可以接受培训,以识别与特定性别相关的特定属性,例如头发长度或声音基调,这些属性可能会使现有的陈规定型观念和对某些性别的偏见永久化。此外,如果将个人的个人信息用于培训这些算法,则它们可能反映出过时的性别角色和身份假设,从而导致有偏见的预测或分类。