人工知能(AI)システムに潜在的なバイアスを考慮する場合、レズビアン、ゲイ、バイセクシュアル、トランスジェンダー、クイア/問題(LGBTQ+)として識別する人々に影響を与える可能性のあるものを考慮することが重要です。これらのバイアスは、セキュリティ、プライバシー、医療へのアクセス、雇用機会などに深刻な影響を及ぼす可能性があります。
しかしながら、AIシステムでこれらのバイアスを検出し、軽減し、永続化を防ぐためのメカニズムはいくつかあります。この記事では、これらのメカニズムが実際にどのように効果的であるかを調べます。LGBT集団に対するAIバイアスを検出するための1つのメカニズムは監査です。これは、アルゴリズムコードとデータソースをチェックして、彼らが提供することを意図している人口の多様性を反映するかどうかを確認することを含みます。たとえば、オンライン出会い系アプリを開発している会社は、そのアルゴリズムに特定のユーザーを除外する可能性のある性同一性または性的指向に関連する用語が含まれているかどうかを評価するために独立したコンサルタントを雇うかもしれません。そうであれば、コンサルタントはアルゴリズムをより包括的にするために変更を推奨します。別の検出方法は、異なるグループでテストすることです。この研究は、研究チームが顔の特徴を用いて画像を分類するモデルをどのようにテストし、ひげやイヤリングなどのステレオタイプに基づいて性的指向について不正確な予測を行ったかを示しています。その結果、研究者はより大規模でより代表的なデータセットでモデルを再分類するようになりました。
AIバイアスに対処するもう1つのアプローチは、株式分析によるものです。これは、特定の意思決定プロセスがさまざまな集団に与える影響を測定することを含みます。ProPublicaの調査によると、Amazonの採用システムは、女性の応募者を選択する可能性が低いことがわかりました。なぜなら、それを持っていない人に「エグゼクティブ」という言葉を持つ履歴書を好むからです。意思決定プロセスを分析した結果、女性に対する潜在的バイアスが特定されました。その結果、Amazonは「エグゼクティブ」という用語を削除するためにシステムを更新しました。持分分析は、刑事司法、ヘルスケア、住宅などの他の分野のバイアスを特定するためにも使用できます。
AIバイアスを緩和するために、1つの戦略は、対面説明を使用することです。彼らは、特定の決定がなされた理由を説明し、別の結果につながる可能性のある代替案を提案します。たとえば、住宅ローンの貸し手が信用度を決定するためにAIを使用する場合、LGBT申請者に有利ではない決定のための説明を提供する必要があります。
例えば"、あなたの収入が500ドル高ければ、あなたはこのクレジットの資格を得るでしょう。もう一つの戦略は、入力制約とアルゴリズム制約を実装することです。
例えば、銀行は、ローンの適格性を決定する際に、性別固有の言語の使用を制限することができます。さらに、企業はAIバイアスを防ぐためにいくつかのステップを踏むことができます。1つのアプローチは、ユーザーまたは顧客に関する人口統計情報を収集することです。GoogleやFacebookのような企業は、製品を設計する際に開発者に多様性を考慮する必要があり、システムが誤って特定のグループを除外しないようにするのに役立ちます。もう1つの戦略は、モデルトレーニング中に多様なデータセットを使用してステレオタイプ化のリスクを減らすことです。最後に、企業はAI開発プロセスに倫理的なガイドラインを構築し、プロセス全体の公平性と透明性を確保することができます。いくつかの研究では、監査だけでは、バイアスが微妙で定義が難しいため、あらゆる形態の差別を完全に排除することはできないことが示されています。他の研究では、監査は有用であることが示唆されているが、機械学習と社会正義の両方の専門知識が有効であることが必要である。事実に反する説明は必ずしも正確で包括的ではない可能性があり、制限が制限されすぎると新しいリスクにつながる可能性があります。デザインプロセスに包括性を作成するには、さまざまなアイデンティティがテクノロジーとどのように交差するかを理解するリソースとスタッフも必要です。全体として、AIシステムがすべての人に平等かつ公正に役立つようにするには、業界のリーダー、政策立案者、擁護団体からの継続的な努力が必要です。
LGBT集団に対するAIバイアスを検出、緩和、防止するためのメカニズムは何ですか?実際にはどのように効果的ですか?
レズビアン、ゲイ、バイセクシャル、トランスジェンダー(LGBT)コミュニティの受け入れが増えているにもかかわらず、人工知能(AI)には依然としてバイアスがあります。これらの偏見は、性同一性、性的指向、人種、年齢、民族、宗教、外観などに基づいた偏見として現れ、アルゴリズムを訓練するために使用されるトレーニングデータに埋め込むことができます。さまざまな研究者が、LGBT集団に対するAIバイアスに対処するためのさまざまなメカニズムを提案しています。