الهوية الجنسية والتعبير هي موضوعات معقدة غالبا ما تشمل الفروق الدقيقة والتفسيرات الذاتية. في حين أن الكثير من الناس قد يشعرون بالراحة في التعبير عن أنفسهم بحرية، فقد يعاني آخرون بسبب الضغط العام أو القيود الشخصية. يمكن للذكاء الاصطناعي (AI) أن يحدث ثورة في كيفية تحديد الناس للتعبير عن جنسهم، ولكن لديه أيضًا مجموعة من التحديات والقيود الخاصة به. في هذه المقالة، ننظر إلى بعض هذه القضايا ونناقش الطرق التي يمكن من خلالها لتقنيات الذكاء الاصطناعي زيادة التحيزات وسوء الفهم عن غير قصد حول الهوية الجنسية والتعبير. تتمثل إحدى المشكلات في تدريب خوارزميات الذكاء الاصطناعي باستخدام كميات كبيرة من البيانات، بما في ذلك الصور والنصوص والتسجيلات الصوتية. قد تحتوي هذه البيانات على تحيزات ضمنية أو قوالب نمطية فيما يتعلق بالهوية الجنسية والتعبير، مما يؤدي إلى أخطاء في التفسير. على سبيل المثال، قد تكافح خوارزمية مصممة للتعرف على الوجه لتصنيف الأشخاص المتحولين بدقة بناءً على ملامح الوجه وحدها، لأنها لا تتناسب مع الفئات التقليدية للذكور/الإناث. وبالمثل، يمكن لبرامج التعرف على الكلام أن تخطئ في تصنيف الأصوات غير الثنائية على أنها ذكر أو أنثى، مما يديم فكرة وجود جنسين فقط.
مشكلة أخرى هي أن أنظمة الذكاء الاصطناعي يمكن أن تعزز القوالب النمطية الجنسانية من خلال تفسير اللغة بطريقة ثنائية. على سبيل المثال، قد يصنف روبوت الدردشة المصمم للإجابة على الأسئلة المتعلقة باختيارات الموضة بشكل غير صحيح بعض عناصر الملابس على أنها تنتمي حصريًا إلى جنس معين، مما يحد من قدرة المستخدمين.
وبالإضافة إلى ذلك، يمكن لآليات التوصية القائمة على الذكاء الاصطناعي أن توصي بمنتجات أو خدمات تستند إلى مفاهيم قديمة عن أدوار الجنسين، مثل تقديم معدات رياضية للذكور فقط للأولاد أو مستحضرات تجميل للفتيات. بالإضافة إلى ذلك، قد تروج أنظمة الذكاء الاصطناعي عن غير قصد لمعايير جنسانية صارمة من خلال تفاعلاتها مع البشر.
على سبيل المثال، يمكن للمساعدين الافتراضيين استخدام مصطلحات جنسانية مثل «هو» أو «هي»، حتى عند مخاطبة الأشخاص الذين يعتبرون كلاهما أو كليهما. وبالمثل، قد تتطلب الأجهزة المنزلية التي يتم التحكم فيها بالصوت من المستخدمين الاختيار بين أصوات الإناث والذكور، وهو ما قد يكون استثنائيًا لأولئك الذين لا يتوافقون مع هذه الخيارات الثنائية. في الختام، في حين أن الذكاء الاصطناعي يمكن أن يمكّن الناس من التعبير عن أنفسهم بشكل أصيل، فإنه ينطوي أيضًا على مخاطر تعزيز التحيزات وسوء الفهم عن غير قصد حول الهوية الجنسية والتعبير. للتخفيف من هذه المخاطر، يجب على المطورين العمل على ضمان تدريب خوارزمياتهم باستخدام مجموعات بيانات مختلفة وعدم وجود تحيزات ضمنية. يجب عليهم أيضًا التفكير في كيفية تفاعل تقنيتهم مع المستخدمين والسعي لخلق تجارب شاملة تحترم جميع الهويات.
كيف يمكن لتقنيات الذكاء الاصطناعي أن تزيد عن غير قصد التحيزات أو سوء الفهم حول الهوية الجنسية والتعبير ؟
يمكن لتقنيات الذكاء الاصطناعي تضخيم التحيزات عن غير قصد من خلال تحليل البيانات التي لا تمثل جميع الأجناس والأعراق والأعراق والثقافات. يمكن أن يؤدي ذلك إلى نتائج غير دقيقة عند تحديد سمات أو خصائص معينة. بالإضافة إلى ذلك، يمكن لخوارزميات الذكاء الاصطناعي أن تتعلم من التحيزات والتحيزات البشرية التي يمكن أن تديم الصور النمطية والمفاهيم الخاطئة الحالية.