Logo

ZeroOpposite

Contact Us
Search

支援勧告は、ソーシャルメディア上のクィアの人々の公正な表現を促進することができますか? jaEN IT FR DE PL TR PT RU AR CN ES

1 min read Queer

AIはソーシャルメディアを含む社会の多くの側面に革命をもたらしました。Facebook、 Instagram、 TikTokなどのプラットフォームは、推奨システムを通じてユーザー体験をパーソナライズするアルゴリズムに大きく依存しています。

しかしながら、これらのシステムは、公平性と包摂に関する倫理的な懸念を提起し、クィア・コミュニティを正確に代表できないという批判に直面している。本稿では、AIに基づくクィア・ピープルのガイドラインの課題を検討し、アルゴリズムの透明性の向上がいかに公正な表現を促進するかについて議論する。

課題Queer People Face on Social Media:

ソーシャルメディアプラットフォームは現代生活の不可欠な部分となっており、コミュニケーションと表現の場を提供しています。しかし、奇妙な人々が支援的なコミュニティを見つけ、彼らがオンラインでどのように反映されているかを見るのは難しいかもしれません。アルゴリズムは、自分の興味、好み、ニーズを認識できないため、関連するコンテンツへのアクセスが制限され、肯定的な経験から除外される可能性があります。

例えば、誰かがYouTubeで「レズビアン」を検索した場合、彼らは彼らのために特別に設計されていない異性愛的なコンテンツやビデオを見るかもしれません。この正確な表現の欠如は、孤立、信頼性の低下、視認性の低下につながる可能性があります。

さらに、アルゴリズムは、否定的な物語を促進し、異なる声の機会を制限することによって、奇妙についての有害なステレオタイプを永続させることができます。いくつかのアルゴリズムは、同性愛、トランスポビア、その他の形態の差別を増幅させ、言論や嫌がらせを嫌うことさえある。これらの問題は、LGBTQ+コミュニティにおける、色のある人々、障害のある人々、農村部に住む人々などの疎外されたグループに不均衡に影響します。

アルゴリズムの透明性は公平性を促進する:

これらの問題に対処するために、ソーシャルメディアプラットフォームはアルゴリズムの透明性を優先する必要があります。これには、アルゴリズムがどのように機能するか、特定の推奨事項がなぜ作成されるか、およびユーザーエクスペリエンスをパーソナライズするためにどのようなデータが使用されるかを説明することが含まれます。プラットフォームの透明性を高めることで、ユーザーはプラットフォームをナビゲートし、バイアスを特定し、経験に関する情報に基づいた意思決定を行うことができます。ユーザーはまた、自分の身元や好みに一致しない情報を削除する機能を備えたデータを管理する必要があります。

さらに、アルゴリズムは、異なるアイデンティティと関心を同時に認識することによって、相互分断性を考慮するように設計されている必要があります。

例えば、ユーザーがqueerとblackとして識別した場合、その推奨事項はこの多面的な視点を反映しているはずです。プラットフォームは、クイア主導の組織とのコラボレーション、さまざまなコミュニティからのフィードバックの収集、開発とサービスのすべてのレベルでの表現を提供することにより、アルゴリズムに多様性を組み込むことができます。

AIを活用した推薦システムは、ソーシャルメディアに革命をもたらしましたが、クィアの人々を除外することができます。

しかし、アルゴリズムの透明性の向上は、ユーザーが自分のアイデンティティと経験に関連するコンテンツにアクセスできるようにすることで、公正な表現を促進することができます。プラットフォームは、包括的なデザインを優先し、多様な視点を収集し、ユーザーが安全で快適なスペースを作成するために、データをより制御できるようにする必要があります。