Logo

ZeroOpposite

Contact Us
Search

人工知能アルゴリズムによってセクシュアリティとジェンダーのアイデンティティを形作る方法 jaEN IT FR DE PL TR PT RU AR ES

性同一性を分類または解釈する際に、AI技術が誤って社会的偏見を強化するにはどうすればよいですか?人工知能(AI)は近年著しい進歩を遂げており、現在、顔認識システム、音声アシスタント、チャットボット、自動運転車など、さまざまな目的で使用されています。

しかし、AIが誤って社会的偏見を永続させるかもしれない1つの領域は、性同一性を分類または解釈する能力である。このエッセイでは、AIアルゴリズムが特定の性別とその社会への影響を認識するためにどのように訓練されるかについて見ていきます。

AIアルゴリズムが誤ってソーシャルバイアスを増幅する一つの方法は、機械学習モデルを使用することです。これらのモデルは、データセットから学習し、これらのデータセットに含まれるパターンに基づいて予測を行うように設計されています。

しかし、これらのデータセットが特定のジェンダーに偏っていると、他のジェンダーに偏ったAIアルゴリズムにつながる可能性があります。たとえば、AIアルゴリズムが男性と女性の画像を使用して訓練されている場合、どちらのカテゴリーにきちんと収まらない非バイナリ個人を認識することが困難になる可能性があります。同様に、AIアルゴリズムが特定のアクセントや方言を持つ人々の音声パターンについて訓練されている場合、異なる背景の人々を理解するのに苦労するかもしれません。

AIアルゴリズムが誤ってソーシャルバイアスを増幅するもう1つの方法は、自然言語処理(NLP)を使用することです。NLPは、人間の言語を理解し、それに応じて対応するために機械を教えることを含みます。

しかし、入力テキストに「he」や「she」などのバイアス言語が含まれている場合、結果はこのバイアスを反映する可能性があります。たとえば、AIシステムが性別代名詞を解釈するようにプログラムされている場合、「he」または「she」を使用するすべての人々はそれぞれ男性または女性であり、トランスジェンダーまたは非バイナリ個人に対する不適切な態度につながる可能性があります。さらに、AI Systemsは、文化的規範や性別の役割に関するステレオタイプを反映した履歴データを作成することもできます。たとえば、女性が主婦や看護師として描かれることが多い写真で画像認識モデルが訓練されている場合、他の分野のプロの女性を認識するのに苦労する可能性があります。これは、STEMなどの伝統的な男性産業に侵入しようとしている女性にとっては特に問題になる可能性があります。さらに、採用プロセスで使用されるAIシステムは、特定の性別を好むことによって、誤って社会的偏見を永続させることができます。

例えば、求職者をスクリーニングするために使用される顔認識ソフトウェアは、特定の方法でメイクやドレスを着用していない非バイナリ個人や女性を識別することはできません。同様に、音声アシスタントは、特定の地域に関連付けられた高い声やアクセントを持っている女性を認識することはできません。これらの問題を軽減するために、研究者はAIアルゴリズムが多様性を念頭に置いて設計されていることを確認する必要があります。これには、異なるデータセットでそれらを訓練し、異なる集団でテストし、疎外されたコミュニティからのフィードバックを組み込むことが含まれます。

さらに、開発者は、性別言語に依存しないアルゴリズムを作成し、代わりに基本的な概念の伝達に焦点を当てる必要があります。最後に、性同一性に基づく差別を防ぐために、人間の監督とレビューをAIシステムに組み込む必要があります。

性同一性の分類や解釈において、AI技術が社会的偏見を不注意に強化するにはどうすればよいのでしょうか?

人工知能(AI)技術の普及により、機械は以前人間のために予約されていたさまざまなタスクを実行することができました。その一つの課題は、性同一性の分類と解釈である。AIシステムは客観的で公平であるように設計されていますが、社会的偏見を誤って強化することができます。これは、これらのシステムで使用されるアルゴリズムがバイアス情報を含むデータセットに依存している場合に発生する可能性があります。