أنظمة تعديل المحتوى هي خوارزميات برمجية تستخدم لتنظيم الكلام والسلوك عبر الإنترنت. يقومون بمسح المنشورات التي ينشئها المستخدم وتحليلها والإبلاغ عنها بحثًا عن انتهاكات لمعايير المجتمع التي تضعها عادةً الشركة الأم للمنصة. اعتدال المحتوى ضروري للحفاظ على التواصل الآمن والمدني والممتع عبر الإنترنت. ومع ذلك، يمكن أن يكون لهذه الأنظمة أيضًا عواقب غير مقصودة، بما في ذلك زيادة التحيز الاجتماعي الذي يعتبر التعبير الغريب «غير مناسب». سيناقش هذا المقال كيفية حدوث ذلك وما هي الانتقادات الفلسفية التي تنشأ من مثل هذه التصنيفات المعيارية.
تعتمد أنظمة اعتدال المحتوى بشكل كبير على التعلم الآلي وتقنيات معالجة اللغة الطبيعية، مما يؤدي غالبًا إلى نتائج متحيزة. على سبيل المثال، تم تدريب العديد من الأنظمة باستخدام مجموعات بيانات تحتوي على بيانات تاريخية من مجتمعات غير متجانسة. هذا يعني أنه قد يكون من المرجح أن يخطئوا في تصنيف الألفاظ النابية على أنها غير مناسبة بسبب عدم التعرض لوجهات نظر مختلفة. بالإضافة إلى ذلك، يمكن أن تكافح الخوارزميات الآلية لفهم المعاني الدقيقة أو السياقات الثقافية، مما يؤدي إلى وضع علامات خاطئة على الرسائل غير الضارة. من الناحية الفلسفية، تثير هذه القضايا تساؤلات حول قيمة حرية التعبير والتعبير. قد لا يشارك الأشخاص المثليون الذين يشعرون بالاستبعاد أو الإحباط بسبب اعتدال المحتوى أفكارهم أو تجاربهم، مما يحد من فهم الآخرين لوجهات النظر الهامشية. بالإضافة إلى ذلك، يمكن للسياسات التقييدية أن تتدخل في الحوار الصحي بين وجهات النظر المختلفة، أو تديم القوالب النمطية الضارة، أو تنكر صحة الهويات غير المطابقة.
في النهاية، هذا يعزز الأعراف الاجتماعية ويرسخ هياكل السلطة، مما يجعل من الصعب على الناس محاربة المعتقدات والسلوك القمعي.
لمواجهة هذه التحديات، يجب على المنصات إعطاء الأولوية للتمثيل العادل في التطوير الخوارزمي، ونماذج التعلم بمدخلات متنوعة، ومشاورات الخبراء حول معايير المجتمع. يجب عليهم أيضًا استخدام المراجعين البشريين للتحقق من الرسائل التي تم الإبلاغ عنها، وتوفير شبكة أمان لأولئك الذين تعتبر الآلات تعبيرهم «غير مناسب». أخيرًا، يمكن للمستخدمين الدعوة إلى سياسات شاملة تشمل جميع أشكال الهوية واللغة والخبرة. من خلال القيام بذلك، يمكننا إنشاء ثقافة أكثر ديناميكية عبر الإنترنت حيث يشعر الجميع بالأمان والسماع والتمكين للتعبير عن أنفسهم بحرية.
كيف تعيد نظم تعديل المحتوى إنتاج التحيزات الاجتماعية التي تعتبر التعبير الغريب «غير مناسب»، وما هي الانتقادات الفلسفية التي تنشأ عن مثل هذه التصنيفات المعيارية ؟
وفقًا لشانون فالور (2018)، «يعمل تصنيف الكلام الآلي على أنه» مسيء «من قبل الخوارزميات المدمجة في منصات التواصل الاجتماعي بناءً على تحيزات الشخص حول فئات معينة من الكلام» (الصفحة 36). غالبًا ما تستند هذه التحيزات إلى الصور النمطية حول الهوية الجنسية والتوجه الجنسي.