Logo

ZeroOpposite

Contact Us
Search

人のためのデートアプリとソーシャルメディアでアルゴリズムのバイアスが異常を永続させる方法+ jaEN IT FR DE PL TR PT RU AR CN ES

1 min read Queer

インターネットは、特に物理的な空間で差別や偏見に直面するかもしれないLGBTQ+個人にとって、日常生活のますます重要な側面です。

しかし、より包括的なオンラインスペースを作成するための努力にもかかわらず、アルゴリズムのバイアスが異常な仮定を強化し、不平等に寄与するリスクが残っています。この記事では、すべてのアイデンティティを歓迎するように設計された仮想環境であっても、アルゴリズムがcisgenderと異性愛者を微妙に好む方法について説明します。これを行うには、バイアスの概念とデジタルプラットフォームでのプレイ方法、GrindrやOkCupidなどの一般的なアプリのケーススタディを分析し、すべての人に平等なオンラインスペースを作成するための推奨事項について説明します。

全体として、この作品は、デジタルデートや社会化をナビゲートする上でクィアコミュニティが直面する課題を強調し、より多くの意識と行動を提唱することを目指しています。バイアスがどのように機能するかを理解することで、すべての人に正義と平等を促進するより包括的なオンライン体験を作成することができます。

アルゴリズムは、多くのウェブサイトやアプリケーションで情報を並べ替え、コミュニケーションを促進し、ユーザーエクスペリエンスを最適化するために使用される重要なツールです。これらには、特定のタスクを通じて機械を導く一連の指示または規則が含まれており、検索結果の予測、顧客評価に基づく製品のランキング、パーソナライズされたニュースフィードのキュレーションなどの自動プロセスに役立ちます。これらのシステムは信じられないほど有用ですが、彼らはバイアスの可能性も秘めています。例えば、オンラインデートに関しては、アルゴリズムは、特定のキーワード、画像、または特性を持つプロファイルを優先することができ、結果として、性別、セクシュアリティ、人種、またはボディタイプに関する規範的なアイデアを反映したマッチになります。これらの仮定がすべての人のために設計されたソフトウェアにコード化されると、伝統的な規範以外の接続を求める人々に広範囲にわたる結果をもたらす可能性があります。

注目すべき例の1つは、人種差別と時代主義の疑いで批判に直面している人気のゲイアプリであるGrindrです。ジャーナリストのマイケル・ケリー(Michael Kelly)による2018年のレポートによると、ユーザーは「女性的」な特徴を持っているか、35歳以上であればメッセージを受け取ることができます。これはGrindrのアルゴリズムが特定の物理的属性を好む一方で、任意の基準に基づいて他の属性を除外することを示唆している。同様に、OkCupidは人種的に偏った結果をマッチング結果に表示したとして非難され、会社は謝罪を発表し、問題に対処するためにそのアルゴリズムを変更するように促した。どちらのケースも、一見中立的な技術が差別と消去を永続させ、一部のユーザーが別の進歩的な環境で疎外されたり拒否されたりする可能性があることを強調しています。

より公平なデジタル空間を作成するには、開発者はアルゴリズムのバイアスを特定して対処するための措置を講じなければなりません。1つの戦略は、機械学習モデルを訓練するために使用されるデータセットの多様化を含み、アイデンティティ、経験、視点の広い範囲が意思決定プロセスを推進することを保証します。もう1つのアプローチは、ユーザーからの情報を勧誘し、すべての人々のニーズと好みを満たすように説明責任を促進することです。このような積極的な対策を講じることで、アルゴリズム・バイアスの悪影響に対抗し、オンラインプラットフォームへの包摂性を促進することができます。

アルゴリズムのバイアスは、包摂性のために設計されたオンラインスペースでも異常な仮定を微妙に強化できますか?

現在、多くのオンラインスペースがインクルーシビティに焦点を当てて意図的に作成されていますが、これらのプラットフォームの一部は、アルゴリズム設計を通じて異常な仮定を微妙に増幅できるという証拠があります。これを行う1つの方法は、チャットボット、検索エンジン、その他のAIシステムに性別の規範を示唆するコード化された言語を含めることかもしれません。