Logo

ZeroOpposite

Contact Us
Search

性,亲密关系和人工智能:了解LGBT社区中的偏见 cnEN IT FR DE PL PT RU AR JA ES

"AI"和"LGBT"的含义是什么?术语人工智能(AI)是指旨在执行需要人类智能的任务(例如自然语言理解,对象识别,决策和基于数据的学习)的计算机程序。相比之下,女同性恋,男同性恋,双性恋,变性者,酷儿/问卷,双性恋者,无性恋者,盟友+(LGBTQIA+)社区是指在传统的男性和女性,异性恋,顺性别和一夫一妻制关系中认同的人。AI如何从数据中学习?在AI机器学习中,系统从包含标记示例的大型数据集中学习。它使用算法在数据中找到模式,并为新情况推广这些模式。数据集越多样化,AI学习越好。然而,如果数据集包含对LGBT人的偏见,AI也会复制这些偏见。为什么LGBT人群面临社会偏见?在许多社会中,仍然存在对非超规范性行为和性别认同的偏见。这些偏见通常是通过歧视,暴力和社会排斥来表达的。结果,LGBT人士在政府机构和媒体中的代表性可能不足或扭曲。

它如何影响AI系统?

如果AI系统依赖于有偏见的数据集,则可能会导致LGBT人群的不公平结果。例如,在LGBT多人脸图像上训练的面部识别软件可能难以识别变性人。这可能导致警察的歧视性做法。AI的发展应遵循哪些道德原则?

研究人员和开发人员在开发AI系统时必须遵循公平、问责制、透明度和隐私等道德原则。他们必须确保他们的工作是包容性的,尊重所有社区。

研究人员如何避免重现社会偏见?为了防止偏见复制,研究人员必须使用无偏见的数据集,考虑其他学习方法,并在设计过程中与边缘化社区互动。

人工智能系统复制针对LGBT社区的社会偏见背后的机制是什么?研究人员和开发人员如何以道德方式进行干预?

人工智能(AI)系统重现社会偏见的最常见方式包括过度依赖有偏见的数据集和算法来延续现有的刻板印象。当这些偏见与女同性恋,男同性恋,双性恋和变性者(LGBT)等边缘群体有关时,这尤其重要。