性同一性と表現は、しばしばニュアンスや主観的解釈を含む複雑なトピックです。多くの人は自由に自分を表現することを心地よく感じるかもしれませんが、公共の圧力や個人的な制約のために苦労する人もいるかもしれません。人工知能(AI)は、人々が性別を識別し表現する方法に革命を起こす可能性がありますが、それには独自の課題と制限があります。この記事では、これらの問題のいくつかを検討し、AI技術が誤って性同一性や表現に関する偏りや誤解を増大させる方法について議論します。問題の1つは、AIアルゴリズムが画像、テキスト、オーディオ録音などの大量のデータを使用して訓練されることです。このデータには、性同一性や表現に関する暗黙的な偏見やステレオタイプが含まれている可能性があり、解釈に誤りが生じます。
例えば、顔認識のために設計されたアルゴリズムは、従来の男性/女性のカテゴリーに収まらないため、顔の特徴だけに基づいてトランス人を正確に分類するのに苦労するかもしれません。同様に、音声認識ソフトウェアはノンバイナリの声を男性または女性として誤って分類し、2人の性別しか存在しないという考えを永続させることができる。
もう一つの問題は、AIシステムが言語をバイナリ形式で解釈することで、ジェンダーのステレオタイプを強化できることです。
例えば、ファッションの選択に関する質問に答えるように設計されたチャットボットは、特定の服のアイテムを特定の性別のみに属するものとして誤って分類し、それによってユーザーの能力を制限する可能性があります。
さらに、AIベースの推奨メカニズムは、男の子のための伝統的に男性のスポーツ用品や女の子のための化粧品だけを提供するなど、性別の役割の時代遅れの概念に基づいて製品やサービスを推奨することができます。さらに、AIシステムは、人間との相互作用を通じて、不注意に厳格なジェンダー規範を促進する可能性があります。
例えば、バーチャルアシスタントは「he」や「she」のようなジェンダー化された用語を使うことができます。同様に、音声制御ホームデバイスは、ユーザーが女性と男性の声の間で選択する必要がある場合があります。結論として、AIは人々に本物を表現する力を与えることができますが、意図せず性同一性や表現についての偏見や誤解を補強するリスクもあります。これらのリスクを軽減するために、開発者はアルゴリズムが異なるデータセットを使用して訓練され、暗黙的なバイアスを持たないようにする必要があります。彼らはまた、彼らの技術がユーザーとどのように相互作用するかを考慮し、すべてのアイデンティティを尊重する包括的なエクスペリエンスを作成するよう努めなければなりません。
AI技術はいかに不注意に性同一性や表現に関する偏見や誤解を増やすことができるか?
AI技術は、すべての性別、人種、民族、文化を代表しないデータを分析することによって、誤ってバイアスを増幅することができます。これは、特定の特徴または特性が識別されたときに不正確な結果につながる可能性があります。さらに、AIアルゴリズムは、既存のステレオタイプや誤解を永続させることができるヒトの偏見や偏見から学ぶことができます。