Logo

ZeroOpposite

Contact Us
Search

LGBTコミュニティのAIにおけるアルゴリズムバイアスの危険性。 jaEN IT FR DE PL TR PT RU AR CN ES

1 min read Lesbian

AIのアルゴリズム・バイアス

AIシステムは、雇用、融資承認、住宅申請、刑事司法の結果など、人々の生活に影響を与える決定を行うためにますます使用されています。

しかし、研究では、これらのアルゴリズムが既存の全身差別、特にLGBTコミュニティなどの疎外されたグループに対して永続することが多いことが示されている。その理由の1つは、アルゴリズムが実際の行動やパフォーマンスではなく、人口統計的特性に基づいて誤った予測を行うときに発生するアルゴリズムのバイアスです。これは、LGBTコミュニティのメンバーを含む特定のグループに属する個人の不公平な扱いにつながる可能性があります。

アルゴリズムがLGBTコミュニティに対する差別を永続させるには?

LGBTQコミュニティに対する差別を永続させるアルゴリズムの1つは、データバイアスによるものです。アルゴリズムを作成するために使用されるトレーニングデータに歴史的な差別パターンが含まれている場合、これは誤ってこれらのバイアスを意思決定プロセスにエンコードする可能性があります。

例えば、ゲイやトランスジェンダーの人々を歴史的に差別してきた企業の履歴書で採用アルゴリズムが訓練されている場合、これらのグループは他のグループよりも資格が低いと誤って推測される可能性があります。同様に、クレジットスコアリングアルゴリズムが、より高い金利を同性カップルに請求する貸し手からのデータについて訓練されている場合、ローンでデフォルトになる可能性が高いと誤って予測される可能性があります。

アルゴリズムが差別を永続させるもう一つの方法は、選択バイアスによるものです。アルゴリズムは、特定のプロファイルに対応するデータポイントのみを選択して、1つのグループを優先することができます。

例えば、不正請求を検出するために設計された人工知能プログラムは、トランスジェンダーの人々に不釣り合いに影響を与える可能性がある「彼」や「彼女」などの性別ベースの言語だけに焦点を当てている可能性があります。

最後に、アルゴリズムは、成功または失敗を構成するものについての設計者の仮定によってバイアスされることもあります。

たとえば、ストレートシスジェンダーの男性によって作成されたアルゴリズムは、たとえそれらの資質が現在の仕事に必要でなくても、男性性などの男性性に関連する特性を優先する可能性があります。

アルゴリズムバイアス緩和

AIでアルゴリズムバイアスを検出および緩和するためのいくつかの構造があります。1つのアプローチは、アルゴリズムがどのように意思決定を行い、人口統計的特性に基づいて異種の影響を特定するかを追跡する監査ツールを使用することです。別の方法は、アルゴリズムが歴史的な差別パターンに頼るのではなく、行動パターンを認識することを学ぶことができるように、より多様なトレーニングデータを収集してラベル付けすることです。さらに、研究者はグループ間の体系的な違いを考慮した新しいモデルを作成し、実際のシナリオを使用してテストすることができます。

選択バイアスを低減するために、開発者はアルゴリズムを作成するときに複数の視点を含めることができ、モデルを訓練してニュアンスと複雑さを認識することができます。また、予測を行う前にすべての人口統計に平等な表現を要求するなど、自己資本制限をコードに含めることもできます。最後に、開発者は、目に見えないデータセットでモデルをテストし、それらを人間の意思決定プロセスと比較することによって、モデルを特定の集団に合わせているかどうかを評価することができます。

アルゴリズムの責任ある使用

AIの責任ある使用には、その潜在的なバイアスと、既存の抑圧システムをどのように永続させることができるかを慎重に検討する必要があります。これらの課題を認識し、対処することで、LGBTQコミュニティのメンバーを含め、すべての人に平等に利益をもたらす技術を作成することができます。アルゴリズムが私たちの生活の中でより一般的になるにつれて、それらが既存の電力構造を強化するのではなく、より公平な社会への移行を支援することが重要です。

AIのアルゴリズム・バイアスは、どのようにしてLGBTコミュニティに対する体系的な差別を高めることができ、どのようなフレームワークがこれらのバイアスを責任を持って特定し、軽減することができるのでしょうか?

人工知能(AI)におけるアルゴリズム・バイアスとは、LGBTコミュニティのメンバーを含む特定のグループに対する暗黙的または明示的な偏見を含む可能性のあるデータを使用してアルゴリズムが訓練される状況を指します。これらの偏見は、性的指向や性同一性に基づいて不当に扱われる人々につながり、それらに対する体系的な差別を強化する可能性がある。