人工智能技术越来越多地用于解释和分类性别认同,但它们可能容易受到可能导致错误或有害结果的社会偏见的影响。这是如何发生的:
1)用于训练人工智能算法的数据集可能包含偏见,因为对某些性别或性取向的历史态度。例如,如果数据集包含从事传统女性活动(例如烹饪和清洁)的女性的图像,则可以引用人工智能算法将这些任务与女性性别认同联系起来。分析语音模式和声音特征以确定性别认同的算法也可能取决于关于男人和女人声音的文化刻板印象。这可能导致对不符合这些定型观念的非二进制个人的错误识别或歧视。面部识别软件是可能出现性别偏见的另一个领域,尤其是在识别性别中立的面部特征或变性人时,其外观与出生时的性别不匹配。除性别外,人工智能算法还可以延续基于种族,年龄,残疾状况和社会经济背景的其他形式的不平等。例如,为检测闭路电视录像中的情绪而开发的算法比白人更有可能错误地将黑人标记为侵略性或犯罪性。最后,人工智能系统是由那些坚持偏见的人开发的,这可能反映在他们如何编程技术上。AI开发中的偏见与技术行业中妇女和少数群体的代表性不足有关。为了解决这些问题,研究人员必须努力创建更多样化的数据集,并培训AI算法来识别亵渎性的表达。公司还必须对其人工智能系统进行偏见审计,并实施保护措施来防止歧视。最终,社会需要挑战过时的性别和性态度,以便每个人在我们日益数字化的世界中都能感受到和尊重。
人工智能技术如何在解释或分类性别认同时再现社会偏见?
人工智能(AI)通过大量数据进行培训,这些数据反映了人类行为和偏见的模式。因此,AI系统可以复制用于培训它们的原始材料中存在的偏见,包括与性别认同有关的偏见。