Logo

ZeroOpposite

Contact Us
Search

セクシュアリティ/セクシュアライゼーションとAI:アルゴリズムがマイノリティに対するバイアスにつながる方法 jaEN IT FR DE PL TR PT RU AR CN ES

アルゴリズムは、人間の介入なしに特定のタスクを実行できるコンピュータプログラムです。彼らは大量のデータを分析し、意思決定を行うためのパターンを見つけることによって動作します。これらのパターンは、歴史的傾向や統計的確率に基づいている可能性があります。アルゴリズムは、信用リスクの特定、天候の予測、サプライチェーンの最適化、音楽の推奨、詐欺の検出、さらには病気の診断に使用されています。しかし、彼らはまた、社会的偏見を永続させ、少数派を差別する。本論文では、アルゴリズムがどのようにモラル・バイアスをミスマッチしたアイデンティティに対して再現するかを検討し、これらのバイアスに対抗する方法を検討する。

道徳的バイアスを再現する1つの方法は、バイナリ分類器を使用することである。バイナリ分類は、人を男性/女性、黒/白、ストレート/ゲイ、abed/disabledなどのカテゴリに分けます。次に、各カテゴリーに、真実である可能性がある、またはそうでない可能性がある特性のセットを割り当てます。例えば、犯罪者を検出するために設計されたアルゴリズムは、実際の行動に関係なく、タトゥーを持つ誰もが犯罪者として分類することができます。これは、伝統的な性別の役割に適合しない人々を含む特定のグループの不均衡なターゲティングにつながる可能性があります。

道徳的バイアスを再現するもう1つの方法は、機械学習を使用することです。機械学習には、広範なデータセットに関するモデルのトレーニングが含まれ、過去の間違いから学ぶことができます。

しかし、データセットが不完全であるか、1つのグループに向かってゆがんでいる場合、モデルは他のグループの不正確な結果を生成します。

例えば、顔認識技術は、主に白人男性に訓練されたため、黒人女性を誤認することが多い。同様に、雇用アルゴリズムは、より民族的に響く名前を持つ候補者よりも、ジョン・スミスのような一般的な名前を持つ候補者を好むかもしれない。

これらのバイアスに対抗するには、アルゴリズムによって使用されるデータセットの種類を増やす必要があります。我々は、色の人々、LGBTQ+個人、移民、障害者、および宗教的少数者を含む過小評価されたグループからデータを収集し、分析しなければならない。また、人間の経験のすべてのタイプを認識するために、さまざまな例でモデルを訓練する必要があります。

さらに、既存のアルゴリズムの精度と公平性をテストし、グループが差別されないようにしなければなりません。最後に、彼らの製品が有害なステレオタイプを永続させるとき、私たちは会社に責任を負わなければなりません。これらのステップを踏むことで、誰もが機会と資源に平等にアクセスできる、より公正な社会を作ることができます。

アルゴリズムは、ミスマッチしたアイデンティティに対する道徳的バイアスをどのように再現しますか?

アルゴリズムは、しばしば人間のプログラマーや社会規範の偏見を反映したデータセットへの依存のため、不一致したアイデンティティに対する道徳的偏見を繰り返すことが示されている。例えば、顔認識ソフトウェアのアルゴリズムをプログラミングする場合、開発者は通常、西洋文化の画像を使用してシステムを訓練します。