アルゴリズムのバイアスは、データセットに基づいて意思決定や予測を行うために使用されるアルゴリズムに存在する意図的または意図的なバイアスです。これは、特定のグループがこれらのデータセットで表現されていない場合に発生し、バイアスされた結果につながります。
アルゴリズムが白人や男性になりがちな人々のデータについて訓練されている場合、それは女性と色の人々の偏った結果につながる可能性があります。
インターネット上の奇妙な可視性とステレオタイプの点で、アルゴリズム・バイアスは奇妙なアイデンティティの表現と認識を形作る上で重要な役割を果たしている。Queerの人々はしばしば、彼らのアイデンティティのためにステレオタイプや誤解に遭遇し、主流の言説からの排除につながる可能性があります。
これらのステレオタイプは、検索エンジンの結果、ソーシャルメディアのフィード、およびアルゴリズムの推奨に依存する他のオンラインプラットフォームを通じても永続化することができます。この記事では、アルゴリズム・バイアスがこの問題にどのように寄与するかについて見ていきます。
アルゴリズミックバイアスがクィアの不可視性を強化する方法の1つは、検索エンジンの結果への影響です。誰かがLGBTQ+の問題に関連する情報を検索すると、時代遅れまたは不正確な情報を含むウェブサイト、またはヘイトスピーチや有害なステレオタイプを含む記事が見つかる可能性があります。これは、人々がオンラインでクィアの人格の否定的な認識だけを見て、彼らが社会に居場所がないと仮定する悪循環を作成することができます。
多くのクイアコミュニティは歴史的に疎外されてきたため、GoogleやBingのような主流の検索エンジンでの表現を確実にするために必要なリソースが不足しています。適切な表現がなければ、これらのコミュニティはオンラインでそれらについての情報を求める多くの人々には見えないままである。
アルゴリズムのバイアスはまた、奇妙な人々についての有害なステレオタイプを広めることができます。
アルゴリズムが特定の種類のコンテンツを他のコンテンツよりも優先する場合、シスジェンダーの白人男性がホモフォビアに従事するビデオなど、それはその行動を正常化し、それが実際よりも受け入れられるようにすることができます。このタイプのバイアスは、他の場所で自分の性格に関する正確な情報にアクセスできない若いクィアの人々にとっては特に問題になる可能性があります。それはまた、クィアの人々が憎悪グループやトロールによって標的にされるのを恐れて、自由にオンラインで自分自身を表現する危険を感じる環境を作成します。
アルゴリズム的バイアスは、奇妙な性格は異常な性格よりも表現に値しないという概念を永続させることができる。これは、YouTubeのようなプラットフォームが、実際の関連性や関心のレベルではなく、閲覧履歴に基づいて同様のコンテンツを推奨する場合に発生します。すでに閲覧されている内容に基づいてコンテンツを推奨することで、誰かが実際に視聴したいものではなく、クイアコンテンツがアクティブな検索に十分に重要ではないという考えを強化します。これは、ユーザーがメインストリームのメディアを消費し続けるサイクルに貢献します。
アルゴリズムのバイアスは、デートアプリや他のソーシャルメディア上の奇妙な人々に対する差別につながる可能性があります。多くの一般的なアプリは、共有された興味や外観に基づいて人々を一致させるためにアルゴリズムを使用しています。
一部のアプリでは、ユーザープロファイルやアクティビティ履歴のデータを使用して、ステレオタイプの特性に基づいたマッチを提案し、その期待に応えられない人々をさらに疎外しています。しかし、これらの問題がどのように現れるかを形作る上で重要な役割を果たしています。この課題を認識することで、奇妙なものを含むすべてのアイデンティティのためのより包括的で公平なオンラインスペースを作成するための作業を開始することができます。
アルゴリズムのバイアスはどのようにクィアの不可視性やステレオタイプをオンラインで永続させるのですか?
ホモフォビア、トランスポビア、シセクシズムなどの様々な原因により、ソーシャルメディアプラットフォームを使用すると、クィアの人々がしばしば問題に遭遇することが研究や調査から見ることができます。そのような問題の1つはアルゴリズムのバイアスの存在であり、これはステレオタイプを永続させ、奇妙な個人に対する既存のバイアスを強化するアルゴリズムの傾向として定義される。