多くの人々は、有害なステレオタイプを永続させ、性的およびジェンダーの少数者を差別する人工知能(AI)システムの可能性を懸念しています。これは、AIアルゴリズムが、ジョブ広告やメディアなどのソーシャルバイアスを反映する可能性のある大規模なデータセットから学ぶことが多いことを考えると特に当てはまります。ただし、AI開発者は、技術がこれらのバイアスを再現しないようにするためにいくつかのステップを踏むことができます。
まず、開発者は使用しているデータセット内の既存のオフセットを特定し、削除するために作業する必要があります。これは、データ前処理、サンプリング、モデル選択などのメソッドを使用して行うことができます。開発者はまた、自分のAIシステムが実際のユーザーとどのように相互作用するかを検討し、すべての人が歓迎される包括的な環境を作り出すよう努めなければなりません。
次に、開発者は、異なるグループの人々を認識し、対応するためにモデルを訓練することに焦点を当てるべきです。たとえば、システムが顔を認識する必要がある場合、開発者は異なる人種、民族、性別の人々の画像でそれを訓練する必要があります。同様に、システムが話し言葉を理解するためには、開発者は様々なアクセントや方言からの録音を含める必要があります。包括的な一連の例を提供することで、開発者はAIシステムが多様性を認識し、評価することを確実にするのに役立ちます。最後に、開発者は定期的にAIシステムのパフォーマンスを評価し、それに応じて調整する必要があります。また、システムがさまざまな人口統計で効果的に機能するように厳格なユーザーテストを実施する必要があります。これは、技術分野で歴史的に過小評価されているかもしれない人々を含む、異なる視点や背景から積極的に参加する必要があります。結論として、性的およびジェンダーの少数者についての有害なステレオタイプを永続させるAIについての懸念があるが、これを防ぐために開発者が取ることができる実用的な対策がある。バイアスを特定して対処し、多様性に焦点を当て、システムを継続的に評価および改善することにより、開発者はAI技術がすべての人々に平等を反映し促進することを保証するのに役立ちます。
AI開発者は、性的およびジェンダーの少数者に対する偏見の増加を防ぐためにどのような倫理的責任を負い、どのような実際的な対策を実施することができますか?
今日の世界では、AI開発者は、公共消費のために設計されたアルゴリズムを作成する際に、社会に対する倫理的責任を考慮する必要があります。これは、性的少数者やジェンダー少数者などの特定のグループに対するバイアスがこれらのアルゴリズムによって増幅される場合に特に当てはまります。その結果、AI開発者はプログラムが脆弱な集団にどのように影響するかを検討し、適切な変更を加える必要があります。