アルゴリズムは、問題を解決するためにデータを処理することができるコンピュータプログラムです。彼らは数式と論理に取り組んでいます。検索エンジンからソーシャルメディアチャンネルやオンラインデートアプリまで、アルゴリズムはどこでも使用されています。しかし、アルゴリズムはどのようにクィアの声を疎外する社会的偏見を反映していますか?
この記事では、アルゴリズムのバイアスがクィアの人々にどのように影響し、どのように不平等を永続させるかについて説明します。また、クィアの人々がアルゴリズムのバイアスのために差別されてきた現実のシナリオの例を紹介します。最後に、アルゴリズムバイアスを低減するためのいくつかのソリューションを提供します。
アルゴリズムのバイアス
アルゴリズムは、無意識のうちに自分のバイアスをコードに注入できる人々によって設計されています。つまり、アルゴリズムは、しばしばクィアの声を疎外する社会規範や偏見を反映することができます。
例えば、オンラインショッピングサイトでは、購入すべきものについての性別のステレオタイプに基づいて、男性と女性の異なる広告が表示される場合があります。同様に、ジョブアプリケーションアルゴリズムは、異性愛が業界でより流行していると考えているため、奇妙な申請者よりも直接申請者を好む可能性があります。
アルゴリズミックバイアス例
アルゴリズミックバイアスの最近の例は、Tinderがユーザーに合わせて「Elo」スコアを導入したときでした。Eloスコアは2人の間の互換性を測定する必要があります。しかしながら、このアルゴリズムは、これらの特性がコンプライアンス基準の一部ではなかったにもかかわらず、白人、cisgender、異常な個人を支持していることが判明した。その結果、多くのクィアの人々はプラットフォームから除外され、完全にそれを残しました。
もう1つの例は顔認識技術であり、トランスおよび非バイナリ個人を出生時に割り当てられた性別として誤認することが示されている。これは、法執行官が誰かを逮捕または起訴するために誤ったデータを使用する危険な状況につながる可能性があります。
Algorithmic Bias Reduction Solutions
アルゴリズムのバイアスを減らすためには、企業はアルゴリズムの仕組みを透明化し、ユーザーからさまざまなフィードバックを収集する必要があります。また、すべての声がデザインプロセスで表現されるように、異なる背景や視点を持つ開発者を雇う必要があります。
最後に、新製品やアップデートをリリースする前にバイアスをチェックするために、堅牢な品質管理を実装する必要があります。結論として、アルゴリズムは、規範と偏見を反映することによって、クィアの人々に対する社会的偏見を永続させることができる。企業は、アルゴリズムを透明化し、さまざまな視点を開発に取り入れることによって、このバイアスを低減するための措置を講じなければなりません。より公平な社会をつくるためには、アルゴリズムのバイアスに真っ向から取り組まなければなりません。
アルゴリズムは、クィアの声を疎外するソーシャルバイアスをどのように反映しますか?
アルゴリズムがソーシャルバイアスを反映できる一つの方法は、その設計と実装です。アルゴリズムは人間によって作成されるので、社会で一般的な特定の価値観や信念を含めることができます。これは、異常やcisgenderismのような他のものよりも有利である可能性が高いことを意味します。