Logo

ZeroOpposite

Contact Us
Search

セクシュアリティ、親密性、人工知能:LGBTコミュニティのバイアスを理解する jaEN IT FR DE PL PT RU AR CN ES

「AI」と「LGBT「とは何ですか?

人工知能(AI)とは、自然言語の理解、物体認識、データ主導の意思決定、学習など、人間の知能を必要とするタスクを実行するように設計されたコンピュータプログラムを指します。対照的に、レズビアン、ゲイ、バイセクシュアル、トランスジェンダー、クィア/アンケート、インターセックス、アセックス、アライド+(LGBTQIA+)コミュニティは、男性と女性の伝統的なバイナリ、異性愛、シスジェンダー、一夫一婦制の関係の外で識別する人々を指します。データからAIはどのように学習しますか?

AI機械学習では、ラベル付きの例を含む大きなデータセットから学習します。アルゴリズムを使用してデータ内のパターンを見つけ、それらのパターンを新しいケースに一般化します。データセットが多様化すればするほど、AIが学習できるようになります。

しかし、データセットにLGBT人に対するバイアスが含まれている場合、AIはそれらのバイアスも複製します。LGBTの人々はなぜ社会の偏見に直面するのですか?

多くの社会ではまだ、異常でないセクシュアリティやジェンダー・アイデンティティに対する偏りがあります。これらの偏見は、しばしば差別、暴力、社会的排除を通じて表明される。その結果、LGBTの人々は政府機関やメディアで過小評価されたり、誤って表現されたりする可能性があります。これはAIシステムにどのように影響しますか?AIシステムがバイアスされたデータセットに依存している場合、LGBTの人々に不公平な結果をもたらす可能性があります。例えば、複数のLGBTの顔を持つ画像で訓練された顔認識ソフトウェアは、トランスジェンダーの人々を認識するのに苦労するかもしれません。これは差別的な政策慣行につながる可能性があります。

AI開発を導くべき倫理原則は何ですか?研究者および開発者は、AIシステムを開発する際には、公平性、説明責任、透明性、機密性などの倫理原則に従わなければなりません。彼らは、彼らの仕事がすべてのコミュニティのために包括的で尊敬されていることを保証しなければなりません。

研究者はどのようにしてソーシャルバイアスの複製を避けることができますか?

バイアスの伝播を防ぐために、研究者はバイアスのないデータセットを使用し、代替トレーニング方法を検討し、設計プロセス中に疎外されたコミュニティと関わるべきである。

AIシステムがLGBTコミュニティに対する社会的偏見を再現し、研究者や開発者がどのように倫理的に介入できるかというメカニズムとは?

人工知能(AI)システムがソーシャルバイアスを再現する最も一般的な方法には、既存のステレオタイプを永続させるバイアスデータセットとアルゴリズムへの過剰依存が含まれます。これは、これらのバイアスが、レズビアン、ゲイ、バイセクシャル、トランスジェンダー(LGBT)の人々のような疎外されたグループに関連している場合に特に重要です。