AI可用于自动化需要自然语言处理(NLP)的任务,例如聊天机器人以支持客户。这些聊天机器人经常使用数据集进行培训,这些数据集包含来自不同来源的大量数据,包括社交媒体帖子和在线论坛,人们在那里讨论他们关于性别认同的经验。发生这种情况时,AI可能会无意中复制有关变性人的错误观念甚至有害的刻板印象。这是因为运行这些系统的算法依赖于他们在培训数据中找到的模式,并且最终可能会在不意识到这种情况的情况下放大这些偏见。例如,如果数据集包含有关变性人外观的负面评论,则可能会导致聊天机器人在与他们聊天时做出贬义性评论。同样,如果数据集包含过时的语言或性别角色的假设,则聊天机器人可能会根据这些偏见得出错误的结论或判断。AI可以延续围绕性别认同的误解的另一种方式是视觉识别。众所周知,面部识别软件会与非二进制面部识别作斗争,因为除了二进制男性/女性变体外,缺乏全面的性别表达培训数据。这可能导致排他性做法,例如强迫人们使用其合法名称而不是首选代词,这可能会使他们的身份无效。此外,面部识别技术通常用于安全措施,例如机场检查,这可能导致不符合传统男性气质或女性气质观念的面部歧视。这个问题超出了人工智能系统的范围。在某些情况下,AI开发人员本身可能会对某些性别产生不知不觉的偏见,从而导致他们开发出增强社会现有力量动态的产品。这些只是人工智能如何无意中促进性别歧视和顺势规范性的几个例子。为了解决这个问题,开发人工智能工具的公司必须牢记它们对边缘化群体的潜在影响,并确保在开发过程中听到所有声音。开发人员还必须与代表性不足的社区的专家密切合作,他们可以深入了解在推出新产品之前需要解决的任何主要问题。总的来说,尽管人工智能提供了许多创新机会,但我们必须保持警惕,防止它加强与性别认同有关的有害陈规定型观念。
如果你完全性表达,你会害怕什么?
你可能害怕被他人拒绝、定罪、标记或排除公开表达自己的性行为。你也可能害怕失去社会支持,甚至因为诚实的意愿或喜好而遭受暴力。此外,您可能会遇到人身安全问题或法律后果,具体取决于您居住在何处以及在此情况下可接受的行为。