アルゴリズムは、ソーシャルメディアプラットフォームや検索エンジンを含むオンライン空間を緩和するためにますます使用されています。これらのアルゴリズムは、どのようなコンテンツが見られ、共有されているかを決定する上で重要な役割を果たしますが、社会的偏見を強化し、LGBTQ+コミュニティなどの疎外されたグループを差別することもできます。このエッセイは、アルゴリズムがクィアの声と経験のオンラインの疎外化にどのように貢献するかを探求します。
技術の進歩は、コミュニケーションに革命をもたらしました。しかし、この開発には欠点があります。これは、多くの少数派が依然として過小評価されており、主流の言説から除外されているということです。
例えば、クィア・コミュニティのメンバーは長い間社会における汚名や偏見に直面してきました。これは、コンテンツをフィルタリングするために設計されたコンピュータプログラムが誤って奇妙な視点を除外することができるアルゴリズムのバイアスを介して明らかにする方法の1つです。
アルゴリズムは、社会的偏見とクィアの声に対する差別をオンラインで再現するいくつかの方法があります。まず、ユーザーが生成したデータに依存して、ユーザーに優先順位付けまたは推奨されるコンテンツを決定するアルゴリズムがあります。異性愛者として識別しない人は、特定のトピックに従事したり、オンラインで意見を共有したりする可能性が低いため、これは会話を支配する均質な視点につながる可能性があります。さらに、アルゴリズムは、既存の音声と行動パターンを分析する機械学習モデルを使用して、どのコンテンツを宣伝するかを決定することができます。これは、クイアコミュニティに関するステレオタイプと誤解の持続につながる可能性があります。この問題のもう一つの要因は、これらのアルゴリズムを作成する人々の多様性の欠如である。多くのテック企業はLGBTQ+の従業員を十分に雇うことができません。つまり、アルゴリズム開発プロセスに異なる視点をもたらさないということです。
最後に、ソーシャルメディアプラットフォーム自体が積極的に投稿を削除するか、可視性を低下させることによって、クィアの声を検閲することができます。これにより、1つのパースペクティブだけが提示され、他のパースペクティブが沈黙するエコーチャンバー効果を作成できます。
結論として、アルゴリズム・バイアスはクィア・ボイスのオンラインの疎外化に貢献する。テック企業は、LGBTQ+の従業員を雇用し、製品が包括的であることを確認することで、これに対処することが重要です。
さらに、ソーシャルメディアプラットフォームは、キューイングされた投票の検閲における役割について責任を負う必要があります。そうすることで、すべての声を均等に聞き、尊重することができるより公平なオンラインスペースを作成することができます。
アルゴリズムはどのようにしてクィアの声に対する社会的偏見と差別をオンラインで複製するのですか?
検索エンジンやソーシャルメディアプラットフォームを管理するアルゴリズムの意思決定プロセスは、そのような意思決定に使用されるデータにバイアスが組み込まれているため、異常な声が増加し、クィアの声が疎外される可能性があります。