AIは、医療、金融、教育、エンターテイメントなど、さまざまな分野でますます使用されています。AIはこれらの業界に革命をもたらしましたが、特定のグループの人々に対するバイアスを永続させる可能性について懸念があります。特に、研究者は、AIシステムがレズビアン、ゲイ、バイセクシュアル、トランスジェンダー(LGBT)コミュニティのメンバーを差別するかもしれないという懸念を提起しています。このリスクを低減するために、AIシステムのバイアスを特定して対処するためのさまざまなメカニズムが開発されています。しかしながら、これらのメカニズムが実際にどのように効果的であるかは不明である。LGBT集団に対するAIバイアスを検出するために提案された1つのメカニズムは、データ監査です。これには、AIシステムを訓練するために使用されるデータを見て、LGBTコミュニティを含むすべてのグループの代表であることを確認することが含まれます。データセット内のギャップを特定することで、エンジニアはモデルが特定のサブグループと区別しないようにするための措置を講じることができます。
例えば、異性愛者カップルではなく同性カップルの医療画像を使用してAIモデルを訓練した場合、LGBTの人々の疾患の診断において精度が低下する可能性があります。同様に、金融モデルが異性婚データを使用しているが同性結婚を無視している場合、LGBTファミリーのニーズを過小評価する可能性があります。LGBT集団に対するAIバイアスを低減するもう1つのアプローチは、アルゴリズムの公平性トレーニングです。これには、機械学習アルゴリズムを訓練して、データの不平等のパターンを認識し、それに応じて意思決定を調整することが含まれます。
例えば、ローンの承認率を予測するために設計されたアルゴリズムは、貸し手が白人よりも黒人とヒスパニック系の申請者へのローンを拒否する可能性が高いことを示す歴史的データで訓練することができます。これらのパターンを認識することにより、アルゴリズムは、人種や民族に関係なく、すべての申請者を公平に扱うことを学ぶことができます。
LGBT集団に対するAIバイアスを減らすための3つ目のメカニズムは、人間のレビューです。このアプローチでは、人々はAIシステムのパフォーマンスを評価し、偏っているように見える場合はどのような場合にもラベルを付けるプロセスに参加します。たとえば、AIシステムが同じ病状の男性と女性のさまざまな治療オプションを一貫して推奨している場合、レビュアーは問題を解決することができます。人間のレビューは、エイジズムやアブルイズムなどの他のタイプのバイアスを特定して対処するのにも役立ちます。
これらのメカニズムにもかかわらず、AIシステムがLGBTコミュニティのメンバーと差別化を続けている証拠があります。最近の研究では、顔認識ソフトウェアは、シスジェンダーの人々とは異なる性別としてトランスジェンダーの人々を誤認する可能性が高いことがわかりました。同様に、NIST (National Institute of Standards and Technology)の報告によると、音声認識技術は男性の声に比べて女性の声を識別する精度が低いことがわかりました。これらの知見は、最先端のAIシステムでさえ、特定のグループに対するバイアスに対する免疫がない可能性があることを示唆している。
全体として、LGBT集団に対するAIバイアスの特定と緩和が進展しているが、多くの作業が行われている。研究者、技術者、政策立案者は、新しい方法を開発し続け、既存の方法が効果的に実施されることを確実にする必要があります。そうして初めて、社会のすべてのメンバーに平等に奉仕する真に包括的で公平なAIシステムを作成することができます。
LGBT集団に対するAIバイアスを特定し、緩和するためのメカニズムは何ですか?実際にどのように効果的ですか?
現在、LGBT集団に対するAIバイアスを特定し、緩和するためのさまざまなツールが存在しています。最も人気のあるアプローチの1つは、データプリプロセッシングであり、潜在的なバイアスに対処するためのデータセットのクリーニングとフィルタリングを含みます。もう1つのアプローチは、公平なデータセットの例から学ぶことができる機械学習アルゴリズムを使用することです。さらに、アクティブトレーニングメソッドを使用して、バイアスを導入する可能性のあるトレーニングデータセットの外れを識別できます。