كيف يمكن لتقنيات الذكاء الاصطناعي أن تعزز عن غير قصد التحيزات الاجتماعية عند تصنيف أو تفسير الهوية الجنسية ؟
لقد قطع الذكاء الاصطناعي (AI) خطوات كبيرة في السنوات الأخيرة ويستخدم حاليًا لمجموعة متنوعة من الأغراض مثل أنظمة التعرف على الوجه والمساعدين الصوتيين وروبوتات الدردشة والمركبات ذاتية القيادة. ومع ذلك، فإن أحد المجالات التي قد يديم فيها الذكاء الاصطناعي التحيزات الاجتماعية عن غير قصد هو قدرته على تصنيف أو تفسير الهويات الجنسانية. سينظر هذا المقال في كيفية تدريب خوارزميات الذكاء الاصطناعي على التعرف على الأجناس المحددة وتأثيرها على المجتمع.
إحدى الطرق التي تعمل بها خوارزميات الذكاء الاصطناعي على تضخيم التحيزات الاجتماعية عن غير قصد هي استخدام نماذج التعلم الآلي. تم تصميم هذه النماذج للتعلم من مجموعات البيانات وعمل تنبؤات بناءً على الأنماط الموجودة في مجموعات البيانات هذه.
ومع ذلك، إذا كانت مجموعات البيانات هذه متحيزة لأجناس معينة، فقد تؤدي إلى خوارزميات الذكاء الاصطناعي المنحازة إلى الأجناس الأخرى. على سبيل المثال، إذا تم تدريب خوارزمية الذكاء الاصطناعي باستخدام صور الرجال والنساء، فقد تواجه صعوبة في التعرف على الأفراد غير الثنائيين الذين لا يتناسبون بدقة مع أي من الفئتين. وبالمثل، إذا تم تدريب خوارزمية الذكاء الاصطناعي على أنماط الكلام للأشخاص الذين لديهم لهجة أو لهجة معينة، فقد يواجهون صعوبة في فهم الأشخاص من خلفيات مختلفة.
طريقة أخرى يمكن لخوارزميات الذكاء الاصطناعي من خلالها تضخيم التحيزات الاجتماعية عن غير قصد هي من خلال استخدام معالجة اللغة الطبيعية (NLP). يتضمن NLP آلات التدريس لفهم اللغة البشرية والاستجابة وفقًا لذلك. ومع ذلك، إذا كان نص المدخلات يحتوي على لغة متحيزة، مثل «هو» أو «هي»، فقد تعكس النتيجة هذا التحيز.
على سبيل المثال، إذا تمت برمجة نظام الذكاء الاصطناعي لتفسير الضمائر الجنسانية، فيمكنه افتراض أن جميع الأشخاص الذين يستخدمون «هو» أو «هي» هم من الذكور أو الإناث، على التوالي، مما قد يؤدي إلى مواقف غير لائقة تجاه المتحولين جنسياً أو الأفراد غير الثنائيين. بالإضافة إلى ذلك، يمكن لنظم الذكاء الاصطناعي أيضًا الاعتماد على البيانات التاريخية التي تعكس المعايير الثقافية أو القوالب النمطية حول أدوار الجنسين. على سبيل المثال، إذا تم تدريب نموذج التعرف على الصور على الصور حيث يتم تصوير النساء غالبًا على أنهن ربات منازل أو ممرضات، فقد يواجه صعوبة في التعرف على النساء المحترفات في مجالات أخرى. قد يكون هذا مشكلة خاصة للنساء اللواتي يحاولن اقتحام الصناعات الذكورية التقليدية مثل العلوم والتكنولوجيا والهندسة والرياضيات. بالإضافة إلى ذلك، يمكن لأنظمة الذكاء الاصطناعي المستخدمة في عمليات التوظيف إدامة التحيزات الاجتماعية عن غير قصد من خلال تفضيل بعض الأجناس.
على سبيل المثال، قد لا يحدد برنامج التعرف على الوجه المستخدم لفحص المتقدمين للوظائف الأفراد أو النساء غير الثنائيين الذين لا يرتدون المكياج أو الملابس بطريقة معينة. وبالمثل، قد لا يتعرف المساعدون الصوتيون على النساء ذوات الأصوات العالية أو اللهجات المرتبطة بمناطق معينة.
للتخفيف من هذه المشكلات، يحتاج الباحثون إلى التأكد من تصميم خوارزميات الذكاء الاصطناعي مع مراعاة التنوع. وهذا يشمل تدريبهم على مجموعات بيانات مختلفة، واختبارهم على مجموعات سكانية مختلفة، ودمج التعليقات من المجتمعات المهمشة. بالإضافة إلى ذلك، يجب على المطورين السعي لإنشاء خوارزميات أقل اعتمادًا على لغة النوع الاجتماعي، والتركيز بدلاً من ذلك على توصيل المفاهيم الأساسية. أخيرًا، يجب تضمين الرقابة البشرية والمراجعة في أنظمة الذكاء الاصطناعي لمنع التمييز على أساس الهوية الجنسية.
كيف يمكن لتقنيات الذكاء الاصطناعي أن تعزز عن غير قصد التحيزات الاجتماعية عند تصنيف أو تفسير الهوية الجنسية ؟
سمح الانتشار المتزايد لتقنيات الذكاء الاصطناعي (AI) للآلات بأداء مهام مختلفة كانت مخصصة سابقًا للبشر. أحد هذه التحديات هو تصنيف الهوية الجنسية وتفسيرها. في حين أن أنظمة الذكاء الاصطناعي مصممة لتكون موضوعية ومحايدة، إلا أنها لا تزال قادرة على تعزيز التحيزات الاجتماعية عن غير قصد. يمكن أن يحدث هذا عندما تعتمد الخوارزميات المستخدمة من قبل هذه الأنظمة على مجموعات البيانات التي تحتوي على معلومات متحيزة.