人工知能の開発に関連する主な課題の1つは、性同一性、人種、性的指向に基づくものを含む、すでに社会に存在するバイアスを永続させる可能性です。これは、日常生活の中でもAIシステムの中でも差別に直面する可能性がある、疎外されたグループのメンバーにとっては特に問題になる可能性があります。幸いにも、レズビアン、ゲイ、バイセクシュアル、トランスジェンダーに対するバイアスを特定し、軽減するためのいくつかの戦略が開発されています。(LGBT) AIアルゴリズムにおける集団。
同定の観点から、研究者は、AIモデルを訓練するために使用される特定の種類のデータセットがバイアスに寄与する可能性があることを発見した。
例えば、LGBTの人々を含む画像は、画像認識データセットにおいて過小評価または誤表示され、AIシステムのエラーにつながる可能性があります。
また、LGBTの人々が一般的に使用する言語パターンも大きな言語モデルに欠けている可能性があり、そのようなシステムによって生成されたテキストを解釈する際には理解が欠如することになる。これに対応するために、企業によっては、すべての個人のユニークな経験と個性を取り入れた、より多様なデータセットとモデル学習方法の作成に取り組んでいます。
識別されたら、バイアスを減らすために介入を実装する必要があります。一つのアプローチは、機械学習技術を使用して、LGBTの人々の不公平な治療を示すデータのパターンを検出し、修正することです。もう1つの戦略は、アルゴリズムが異なるサブグループをどの程度適切に処理するかを測定するための公平性メトリクスを開発することであり、開発者は既存のコードに対する新機能や変更の影響を評価することができます。最後に、専門家は、訓練を受けた専門家が正確さと公平性を確保するためにAIのアウトカムを検査し、評価する人間のスクリーニングプロセスを実装することをお勧めします。
しかしながら、これらの方法は必ずしも実際には有効ではありません。多くの場合、その実装には、小規模な組織が提供することが困難な重要なリソースと専門知識が必要です。また、包括的な努力を払っても、その根底にある原因やメカニズムを十分に理解することなくバイアスの完全な排除を保証することは困難です。したがって、時間の経過とともにこれらの介入の有効性をさらに向上させるためには、科学者、業界の専門家、アドボカシー・グループ間の継続的な研究と協力が必要である。
LGBT集団に対するAIバイアスを特定し、緩和するためにどのようなメカニズムがあり、これらの介入が実際にどのように効果的であるか?
企業や組織が使用するアルゴリズムに存在する可能性のある人工知能(AI)歪みを特定し、緩和するために、多くの方法が提案されています。1つの一般的なアプローチは、データセットの統計分析を行い、人種、性別、性的指向、年齢、社会経済的状況などの意図しないバイアスを含まないようにすることです。もう1つの方法は、データ内のパターンを検出し、バイアスの潜在的なソースにフラグを付けることができる機械学習アルゴリズムを使用することです。