人工知能がジェンダー・アイデンティティをどのように表現できるかという問題は、近年ますます重要になってきています。技術が進化し続けるにつれて、人間の行動を模倣する能力も変化していきます。これにより、AI技術が不注意に社会的偏見や性同一性の歪みを増幅する可能性があります。1つの方法は、既存の社会構造と規範に基づいて構築されるアルゴリズムとデータセットを使用することです。これらのシステムが性同一性のニュアンスを理解して設計されていない場合、男性または女性であることの意味についてのステレオタイプや過剰な説明を永続させることができます。たとえば、機械学習アルゴリズムは、男性性関連の攻撃性や女性性関連の子育てなど、性別ごとに特定の特性をリンクするデータから学ぶことができます。これは、従来のジェンダーの役割に適合していない人々に深刻な結果をもたらす可能性がある、彼らの性別だけに基づいて人々についての誤った仮定につながる可能性があります。AI技術が不注意に社会的偏見や性同一性の歪みを増幅する可能性があるもう一つの分野は、言語処理と自然言語処理です。自然言語処理はコンピュータに人間の音声を理解させることを含み、これは音声アシスタントやチャットボットなどの技術を開発するために重要ですが、システムが異なる話す方法や書く方法を認識しない場合にも問題を引き起こす可能性があります。ボットは、人のアクセントや方言を特定の地域や民族の代表として解釈し、その情報に基づいてそれらについて仮定することができます。同様に、コンピュータプログラムがジェンダー言語を使用する書面で訓練されている場合、代名詞と非バイナリ代名詞を使用している誰かを区別することができない可能性があります。最後に、AI技術を使用して、知覚された性同一性に基づいて人々を追跡し、監視することができるという懸念があります。例えば、顔認識ソフトウェアは、トランスジェンダーの人々を識別するために、典型的には1つの性別に関連付けられているが、別の性別に関連付けられていない機能を見て、プライバシー権を侵害する可能性があります。
一般に、開発者は、ジェンダーのアイデンティティを表すように設計された製品を作成する際に、技術が既存の社会構造と規範をどのように永続させることができるかを検討することが重要です。彼らは、バイナリカテゴリーに収まるものだけでなく、包括的であり、すべての性別を反映するシステムを開発するよう努めるべきです。
AI技術はいかに不注意に社会的偏見や性同一性の歪みを増幅することができるか?
AI技術は、人気が高まり、イノベーションの可能性が高まっているにもかかわらず、ジェンダーの多様性を反映していないデータソースに依存しているため、社会的偏見や性同一性の歪みを増幅する可能性があります。AIアルゴリズムによって使用されるトレーニングデータは範囲が限定され、有害または誤解を招くステレオタイプを永続させることができます。