アルゴリズム・バイアス(Algorithmic bias)とは、コンピュータシステムが、性別、人種、年齢、性的指向などの特性に基づいて、何人かの人を他の人と異なる扱いにする状況を指す。このようなバイアスは、アルゴリズムや顔認識ソフトウェアの採用など、意思決定に使用される人工知能システムで発生する可能性があります。アルゴリズムのバイアスの最も重要な形態の1つは、レズビアン、ゲイ、バイセクシュアルおよびトランスジェンダー(LGBT)集団の治療に関連している。この文脈では、LGBTの人々は、これらの技術がそれらをどのように解釈し、表現するかのために差別を経験するかもしれません。
例えば、顔認識ソフトウェアは、バイナリ以外の人や典型的な性別ステレオタイプに適合しない人を認識するのが難しい場合があります。その結果、彼らは誤って分類され、健康、雇用、刑事司法などの分野に潜在的な害をもたらす可能性があります。
LGBTグループがアルゴリズムバイアスに対して特に脆弱である理由はいくつかあります。まず、彼らの経験に関するデータが不足しているため、トレーニングデータセットでの表現不足につながる可能性があります。第二に、アルゴリズムは、男性がスーツを着るべきで、女性がドレスを着るべきであるという仮定のような、社会的偏見を反映した歴史的モデルに描くことができます。第三に、LGBTの人々の異なるコミュニティの間に文化的な違いがあるかもしれません。最後に、意図的な検閲または暗黙的な除外を通じて、特定のシステムからLGBTの人々を除外する意図的な試みがあるかもしれません。
これらの課題に対処するために、倫理的枠組みは公平な技術の開発を導くことができる。これらの構造は、LGBTの人々を含むさまざまな人口のニーズを考慮に入れる必要があります。また、開発者が作業の結果について責任を負うことを確実にすることにより、説明責任と透明性を促進しなければなりません。さらに、これらの構造は、重要なサービスへのアクセスを提供しながら、個人情報を保護しながらプライバシーとセキュリティを優先する必要があります。
最終的には、LGBTの提唱者や他の利害関係者と協力することで、より包括的な技術を生み出すことができます。
AIにおけるアルゴリズムの歪みは、LGBT集団に対する社会的差別をどのように再現し、どのような倫理的枠組みが公平な技術の開発を導くことができるか?
「社会差別」とは、人の性的指向または性同一性に基づく偏見や不平等な扱いを指します。人工知能(AI)システムにおけるアルゴリズムのバイアスは、LGBTの人々についてのステレオタイプと誤解を永続させることによって、これらの社会規範を強化することができます。