AI技術は、性同一性の解釈や分類における社会的偏見を不注意に強化するにはどうすればよいですか?人工知能(AI)を使って性同一性を認識、解釈、分類する方法の問題は、これらのシステムが私たちの日常生活の中でより一般的になるにつれて急務となっています。AIは社会に多くの利益をもたらすことができますが、ジェンダーに関連する既存の社会規範や偏見を不注意に強化する方法についても懸念があります。この記事では、これが起こる可能性のある方法のいくつかを見ていきます。
AIシステムが性同一性を正確に表現するために苦労するかもしれない1つの領域は、顔認識技術にあります。顔認識ソフトウェアは、多くの場合、主に白人のシスジェンダー集団の人々の画像を使用して訓練されたデータセットに依存しています。その結果、アルゴリズムは、従来の性別バイナリ以外を識別するものを含め、このフォームに適合していない人々に属する顔を正確に認識できない可能性があります。
例えば、トランスジェンダーの女性は、女性らしさを構成するトレーニングセットの定義を満たしていないため、顔の特徴が男性と誤認される可能性があります。さらに、非バイナリ面は、設定中に選択するオプションに応じて、男性または女性として誤ってラベル付けされることがあります。同様に、音声パターンを分析するために設計された人工知能システムも、発話が性別表現に対する一般的な期待に合わない人々の声を正確に認識するのに苦労するかもしれません。
AIと性別認識のもう一つの問題は、言語処理に関連しています。自然言語処理(NLP)アルゴリズムは、性差別主義的または同性愛的な用語や表現を含むことができる、書かれた言語データセットと話す言語データセットに大きく依存しています。NLPシステムがそのようなデータについて訓練されている場合、それは有害なステレオタイプと疎外されたコミュニティの歪みを永続させることができます。
例えば、AIシステムが「うまく調理する」という命題に直面している場合、それが「彼」であるかどうかよりも肯定的であると解釈することができます。これは、男女の適切な行動に関するジェンダーの役割とバイアスを強化します。
場合によっては、AIシステムが知覚された性同一性に基づいてアイテムを分類または分類しようとするとバイアスが発生することもあります。例えば、画像認識ソフトウェアは、特定の種類の衣類を男性または女性として誤って分類し、着用者の性別を特定しようとすると不正確な結果をもたらす可能性があります。一見中立的な製品やサービスであっても、そのようなラベル付けエラーの被害を受ける可能性があり、伝統的なジェンダー規範に適合しない人々へのアクセスを否定する可能性があります。
これらの問題に対処するために、開発者は正確さと包含性のためにAIシステムを訓練し、テストする方法を慎重に検討する必要があります。トレーニングデータセットには、異なるグループやコンテキストを表す例が含まれており、cisgenderの視点と仮定だけに頼らないようにする必要があります。
さらに、ユーザーが効果を軽減するための措置を講じることができるように、モデルの潜在的なバイアスについて透明でなければなりません。包括的な設計慣行を優先することで、AI技術がジェンダー・アイデンティティに関する社会的偏見を誤って強化しないようにすることができます。開発者は、AIがジェンダー・アイデンティティに関する既存の社会規範を強化しないよう、包括的な設計原則を優先する必要があります。これは、アイデンティティに関係なく、誰もが尊敬と尊厳をもって扱われるより公正な世界を作成するのに役立ちます。
AI技術は、性同一性の解釈や分類における社会的偏見を不注意に強化するにはどうすればよいですか?
人工知能(AI)の開発は急速に発展しており、ヘルスケア、金融、教育、最近ではジェンダー研究など、さまざまな分野での応用が拡大しています。AIが使用される1つの領域は、性別ごとに通常関連付けられている形質を識別することによる性同一性分析です。