セクシュアリティ、ジェンダーのアイデンティティ、関係性は、言語、画像、ビデオを通じて表現できる個人的特徴です。
しかし、これらのアイデンティティがオンラインでどのように提示されるかについての単一の基準はなく、LGBTQコミュニティのような疎外されたグループに対する誤った表現と差別につながります。デジタルプラットフォームはますます普及しており、世界中の人々が地理的な制約なしに自分の経験を接続し、共有することができます。残念ながら、この進歩には、特に社会的な汚名と表現の欠如に直面する可能性のある性的少数者に対して、嫌がらせ、憎悪の言動、およびサイバーいじめが伴いました。コンテンツモデレーションポリシーとアルゴリズム構造は、デジタルスペースで許可されているコンテンツを決定する上で重要な役割を果たします。
デジタルプラットフォームは、ヘイトスピーチやハラスメントに関する明確なルールを含む、受け入れ可能な行動のための明確なガイドラインを実装する必要があります。これらの推奨事項は、名声や権力に関係なく、すべてのユーザーが一貫して適用する必要があります。プラットフォームはまた、被害者が簡単に虐待メッセージにフラグを付け、サポートを見つけやすくするためのユーザーレポートツールを構築する必要があります。
アルゴリズム構造は、マイノリティと疎外されたグループの包括的な表現を促進するために開発されるべきである。これには、多様なコンテンツのクリエイターを優先する検索アルゴリズムの作成、ユーザーの好みや興味に基づいて安全なコンテンツを推奨すること、ポジティブなメッセージを促進することが含まれます。人工知能システムは、攻撃的なコメントを検出し、投稿前にレビュー用にフラグを付けることもできます。
プラットフォームは、LGBTQアドボカシー組織と提携して、リソースを提供し、コンテンツ作成者がオンラインで正確に自分自身を提示し、誤った表現を避ける方法を訓練することができます。トレーニングプログラムは、安全性をオンラインで議論するときにしばしば見落とされる性同一性、人種、障害、その他のアイデンティティとの関係を考慮する必要があります。
デジタルプラットフォーム、コンテンツモデレーションポリシー、アルゴリズム構造は、LGBTQの人々の嫌がらせと表現にどのように影響し、セキュリティとインクルージョンを改善するためのソリューションは何ですか?
LGBTQコミュニティのメンバーの嫌がらせは、近年オンラインで増加しています。これは、ソーシャルメディアプラットフォームとそのアルゴリズムの存在が増加しており、品質ではなくエンゲージメントに基づいてコンテンツを促進しているためです。さらに、コンテンツモデレーションポリシーは、この人口が直面しているユニークな課題に適切に対処できないことがよくあります。その結果、多くのLGBTQの人々は、オンラインスペースで安全でないと感じています。