人工智能(AI)彻底改变了许多行业,包括医疗保健,金融和教育。但是,当用于歧视LGBT人群等边缘群体时,它也会带来重大风险。AI算法增强偏差的一种方法是输入数据。机器学习模型使用包含历史模式和趋势的大型数据集进行培训。这些数据集通常反映了使不平等长期存在的社会偏见和偏见。例如,如果招聘申请的数据集主要包含具有传统性别角色的异性恋申请者,则该算法可以在其预测中支持这些特征,这可能导致较少的LGBT人被录用。AI可以促进偏见的另一种方式是决策过程。某些机器学习模型基于某些属性和结果(例如肤色和犯罪率)之间的统计相关性。在这种情况下,由于黑人的肤色,黑人比白人更容易被错误地认定为罪犯。这种类型的系统性种族主义可能延伸到其他领域,如就业或住房。最后,人为错误可能会导致偏见AI结果。开发人员必须确保他们不会在代码中编码自己的无意识失真。例如,程序员可能会无意中将与LGBT相关的主题标记为"敏感",并在培训期间限制对其的访问。为了减轻这些问题,开发人员必须在设计过程中优先考虑多样性。他们必须从LGBT社区寻求信息,并将包容性做法纳入其工作流程。此外,他们应考虑减少偏见的替代措施,例如数据随机化或部署前对算法进行审核。最后,需要定期测试和维护,以识别和纠正随时间推移的任何错误。通过解决算法设计中的结构不平等,开发人员可以负责任和道德地使用AI来促进创新。
人工智能如何增强对LGBT人的偏见,以及开发人员如何从道德上解决算法设计中的这些结构性不平等?
人工智能(AI)已显示通过复制和增强现有的社会结构来增强对LGBTQ+个人的偏见,这些社会结构有助于异规范性,顺规范性和性别二元性。AI培训数据集中缺乏酷儿身份的表示和数据进一步加剧了这一问题。