アルゴリズム・バイアス(Algorithmic bias)とは、雇用、貸与、ヘルスケアなど様々な分野でアルゴリズムを用いて意思決定を行った場合に発生するバイアスをいいます。レズビアン、ゲイ、バイセクシュアル、トランスジェンダー(LGBT)の人々のような疎外されたグループに属している人々にアルゴリズムバイアスの潜在的な影響についての懸念が高まっています。本論文では、LGBTの人々に対するアルゴリズム・バイアスを特定し緩和するための既存の構造と、実際にどのように効果的であるかについて議論する。
最初の構造は、アルゴリズムを訓練するために使用されるデータソースを学習することです。これにより、トレーニングデータは提供された人口を正確に反映します。
例えば、雇用アルゴリズムが異性愛者男性のCVを使用して訓練されている場合、これはLGBT申請者の偏った結果につながる可能性があります。これを避けるために、組織は、すべての性別、性的指向、および性同一性を表すさまざまなデータソースをトレーニングデータセットに含めることができます。
もう1つのアプローチは、モデル開発においてエクイティ措置を使用することです。これらの指標は、モデルが異なるサブグループを平等に扱うか、別のグループを優先するかを評価します。
例えば、等価スコアは人口統計グループ間でモデルのパフォーマンスを比較しますが、異なるインパクトメジャーはグループのアウトカム間の違いを明らかにします。
また、データセット内のグループ表現に基づいて出力を調整するために、再重み付けやキャリブレーションなどの後処理技術を使用することができます。
さらに、説明ツールは、ブラックボックスモデルを分析し、害を引き起こす可能性のあるパターンや相関を特定するのに役立ちます。アルゴリズムの意思決定プロセスを説明することによって、これらの方法は、そうでなければ気づかなかったかもしれない隠されたバイアスを検出することができます。説明可能性は、監査アルゴリズムが特定のグループと区別しないようにすることもできます。最後に、アルゴリズムの性能の定期的な監視と評価は、その有効性を維持するために重要です。組織は、潜在的なバイアスをテストし、必要に応じて変更を加えるために、アルゴリズムを絶えずテストする必要があります。これには、さまざまな集団でアルゴリズムの性能をテストし、その結果を他の類似のシステムと比較することが含まれます。モニタリングは、社会が進化するバイアスの新しい形態を特定するのにも役立ちます。
これらの構造はアルゴリズムのバイアスを軽減するために存在するが、その有効性は限られている。まず、プライバシーやデータの可用性に関する懸念から、多様なデータの収集が困難になる可能性があります。第二に、エクイティメトリクスは常に現実世界のシナリオを正確に反映しているとは限らず、あらゆる種類の差別を検出することは困難です。最後に、説明ツールは、その可用性を制限することができ、経験と時間を必要とします。
結論として、LGBT個人に対するアルゴリズムバイアスの特定と緩和には、データソースの慎重な検討、モデル開発中の株式措置の使用、説明ツールの使用、アルゴリズムのパフォーマンスの定期的な監視を含む多面的なアプローチが必要です。これらの戦略は差別に対する保護を提供しますが、ますます多様化する世界におけるバイアスの新興形態に対処するためには、より多くの研究が必要です。
LGBTの人々に対するアルゴリズムバイアスを特定し、緩和するためにどのような構造があり、実際にどのように効果的ですか?
多くのフレームワークは、LGBTの人々に対するアルゴリズム・バイアスを特定し、緩和するために提案されている。そのようなフレームワークの1つは、オントロジーを「特定のアプリケーションの言説の領域を表すために必要な概念と関係の正式な仕様」と定義する、情報システムの形式オントロジー(FOIS)である(Ram et al。、 2015)。