アルゴリズムシステムは、クイアの声を増幅または抑制できますか?この質問はコンピュータサイエンス界で何年も議論されてきましたが、まだ明確な答えはありません。一方で、アルゴリズムは、LGBTQ+コミュニティのような、疎外されたコミュニティを特定し、進歩させるのに役立つようです。一方で、既存のバイアスを強化し、これらのグループに対する差別を悪化させることもできます。
アルゴリズムは問題を解決するために設計された数式です。データを取り、その入力に基づいて結果を出します。近年、金融、保健、教育、政治などの分野で重要性が高まっています。しかし、クイアの声を増幅または抑制することになると、その役割はより複雑になります。
クィアの声を増幅する1つの方法は、推薦システムによるものです。これらのシステムは、ユーザーが興味深いと思われる記事、ビデオ、またはその他のメディアを提供します。人々が読んだり見たりするもののパターンに気づけば、それらの興味を反映するために推奨事項を調整することができます。これには、検索が難しいクエリ指向のコンテンツが含まれる場合があります。
しかしながら、これらのアルゴリズムは必ずしも意図されたように動作するとは限らない。
たとえば、特定の言語を使用する場合、推薦者は特定の著者からコンテンツを除外できることが示されている研究もあります。他の人は、cisgenderの男性をターゲットとした広告を実行する可能性があり、トランスジェンダーの人々が関連する情報を見つけることが難しくなります。
さらに、これらのシステムは、性別とセクシュアリティに関するステレオタイプを永続させることができます。彼らは誰もが非正規的なアイデンティティの出現を制限する男性と女性の間のロマンチックな関係の伝統的な概念を見たいと思うかもしれません。同様に、彼らはすべての女性が多様な美しさの基準を無視して、メイクアップチュートリアルを見たいと仮定するかもしれません。この問題を解決するために、企業はより包括的なアルゴリズムを開発し始めました。一部のプラットフォームでは、コンテンツオファリングを作成する際に、人種、民族、障害などの要素を考慮しています。他のユーザーは、IDカテゴリを指定して好みをカスタマイズすることができます。しかしながら、改善の余地はまだたくさんあります。
アルゴリズムはまた、オンラインで奇妙な人々を嫌がらせする上で重要な役割を果たしています。憎しみの修辞、doxxing(公共の場で個人情報を共有する)などの虐待は、ソーシャルメディアで一般的になっています。これらのプラットフォームは、潜在的に攻撃的な投稿にフラグを付けるために機械学習アルゴリズムに依存することがよくあります。しかし、時には有害な言葉や行動を認識しないこともあります。
さらに、アルゴリズム系は間接的にLGBTQ+コミュニティに対する差別に貢献することができる。
たとえば、求人サイトでは、求人に合わせてキーワードを使用することがよくあります。これらのキーワードが非バイナリまたはポリアモラスのアイデンティティに関連する用語を除外すると、バイアスにつながる可能性があります。
一般に、アルゴリズム系は、クイアの声を増幅または抑制するという点では完全に中立ではあり得ない。彼らは多様性をサポートする可能性を持っていますが、意図しない結果を防ぐために慎重に設計され、テストされなければなりません。開発者および政策立案者は、これらのツールが責任を持って公正に使用されることを保証しなければなりません。
クィアの声を増幅または消音するとき、アルゴリズム・システムはニュートラルになることはありますか?
クィアの声の上昇は、人々がしばしば主流社会からの差別、偏見と排除に直面して、何年もの間、継続的な問題でした。技術はこの問題の有望な解決策のように思えるかもしれませんが、完全に中立的にはできないと信じる理由があります。アルゴリズムシステムは、データを解釈し、意思決定を行う方法を形作ることができる独自のバイアスと信念を持つ人々によって設計されています。