Logo

ZeroOpposite

Contact Us
Search

デジタル時代のセックス:AIは社会におけるジェンダー・バイアスをどのように永続させ、それを修正するために何ができるか? jaEN IT FR DE PL TR PT RU AR CN ES

AI技術は、企業の働き方や顧客とのやり取りを変革しました。AIの応用の1つは性別識別であり、外見や行動に基づいて男性か女性かを判断することができます。

しかしながら、これらのシステムは、性同一性とステレオタイプに関する社会的偏見を強化する可能性があるという懸念がある。これは、すでに差別に直面している疎外されたグループに深刻な結果をもたらす可能性があります。この論文では、AIシステムが性別識別における社会的偏見を増大させるリスクをどのように検討し、この問題を軽減する方法について議論します。

まず、AIアルゴリズムは大きなデータセットに依存して自分自身を訓練します。これらのデータセットは、多くの場合、社会における既存のバイアスを反映しているため、性同一性を分類または予測する際に永続化することができます。

例えば、映画やテレビ番組の画像を使用する顔認識ソフトウェアは、これらのメディアでの表現が限られているために、男性としての色の女性を誤認する傾向があります。同様に、音声パターンを認識する音声アシスタントは、多くのアクセントや方言がトレーニングデータに含まれていないため、女性の声を過小評価する傾向があります。さらに、オンライン検索やソーシャルメディア投稿で使用されるテキストデータについて訓練された言語モデルは、バイナリ以外の個人に対するバイアスも示しています。さらに、AIアルゴリズムはデータ内のパターンを検出することで学習します。これらのモデルは予測に使用されますが、データに偏った情報が含まれている場合、予測も偏ります。

例えば、求人アプリケーションを分析するために設計されたAIシステムは、女性がより低いスコアを与えることができます。健康、金融、教育などの他の分野にも同様です。さらに、一部のAIシステムは、知覚された性同一性に基づいて新しい形態の差別を作成することができます。

例えば、日付サイトのための推奨事項を提供するようにプログラムされた仮想アシスタントは、性的指向ではなく、性別表現に基づいて潜在的なパートナーとユーザーを一致させることができます。バイナリカテゴリに収まらないトランス人を除外します。しかしながら、AIシステムの社会的偏りを増大させるリスクを減らすための措置が講じられる。一つのアプローチは、AIアルゴリズムを訓練するために使用されるデータが異なる視点を反映していることを確認することです。企業は、より包括的なデータを収集し、それに応じてアルゴリズムを調整するために、疎外されたコミュニティと協力しなければなりません。また、意図しないバイアスを特定するために、クロスバリデーションやエラー分析などの手法を使用してAIシステムをテストする必要があります。

さらに、企業は、人間のレビュープロセスなどのセーフガードを作成するか、性別の誤認を修正するオプションをユーザーに提供することを検討する必要があります。結論として、AIは多くの業界を変革してきましたが、ジェンダー識別への応用は、既存の社会的偏見を永続させることへの懸念を高めます。AIアルゴリズムを訓練するために使用されるデータが異なる視点を反映し、バイアスをテストし、セーフガードを作成することによって、企業はこの問題を軽減し、製品を誰もがアクセスできるようにすることができます。

AIシステムは、性同一性を分類または予測する際に、社会的偏見を強化するリスクをどのように負うのですか?

人間の情報源からのデータに依存する人工知能システムは、髪の長さや声のトーンなど、特定の性別に関連する特定の属性を認識するように訓練することができます。さらに、個人の個人情報がこれらのアルゴリズムの訓練に使用される場合、性別の役割とアイデンティティに関する時代遅れの仮定を反映し、偏った予測または分類につながる可能性があります。