غيرت تقنية الذكاء الاصطناعي طريقة عمل الشركات وتفاعلها مع عملائها. أحد تطبيقات الذكاء الاصطناعي هو تحديد الجنس، حيث يمكنه تحديد ما إذا كان الشخص ذكرًا أم أنثى بناءً على مظهره أو سلوكه. ومع ذلك، هناك مخاوف من أن هذه الأنظمة قد تعزز التحيزات الاجتماعية حول الهوية والقوالب النمطية الجنسانية. قد يكون لهذا عواقب وخيمة على الفئات المهمشة التي تواجه بالفعل التمييز. تبحث هذه الورقة في كيفية مخاطرة أنظمة الذكاء الاصطناعي بزيادة التحيزات الاجتماعية في تحديد الجنس وتناقش طرق التخفيف من هذه المشكلة.
بالنسبة للمبتدئين، تعتمد خوارزميات الذكاء الاصطناعي على مجموعات بيانات كبيرة لتدريب أنفسهم. غالبًا ما تعكس مجموعات البيانات هذه التحيزات الحالية في المجتمع، مما يعني أنها يمكن أن تديمها عند تصنيف الهوية الجنسية أو التنبؤ بها. على سبيل المثال، يميل برنامج التعرف على الوجه الذي يستخدم صورًا من الأفلام والبرامج التلفزيونية إلى التعرف بشكل خاطئ على النساء ذوات البشرة الملونة كرجال بسبب التمثيل المحدود في هذه الوسائط. وبالمثل، فإن المساعدين الصوتيين الذين يتعرفون على أنماط الكلام يميلون إلى التقليل من شأن أصوات النساء لأن العديد من لهجاتهن ولهجاتهن غير مدرجة في بيانات التدريب. بالإضافة إلى ذلك، تُظهر النماذج اللغوية المدربة على البيانات النصية المستخدمة في عمليات البحث عبر الإنترنت ومنشورات وسائل التواصل الاجتماعي أيضًا تحيزًا ضد الأفراد غير الثنائيين. بالإضافة إلى ذلك، تتعلم خوارزميات الذكاء الاصطناعي عن طريق اكتشاف الأنماط في البيانات. يستخدمون هذه النماذج للتنبؤات، ولكن إذا تضمنت البيانات معلومات متحيزة، فستكون التوقعات متحيزة أيضًا. على سبيل المثال، يمكن لنظام الذكاء الاصطناعي المصمم لتحليل طلبات العمل أن يمنح النساء درجات أقل لأنه تم تدريبه على البيانات التاريخية التي تظهر أن المتقدمين الأقل تأهيلاً كانوا في الغالب من الرجال. وينطبق الشيء نفسه على مجالات أخرى مثل الصحة والمالية والتعليم. بالإضافة إلى ذلك، يمكن لبعض أنظمة الذكاء الاصطناعي إنشاء أشكال جديدة من التمييز على أساس الهوية الجنسية المتصورة. على سبيل المثال، يمكن لمساعد افتراضي مبرمج لتقديم توصيات لمواقع المواعدة أن يطابق المستخدمين مع الشركاء المحتملين بناءً على تعبيرهم عن الجنس بدلاً من التوجه الجنسي. سيستبعد الأشخاص المتحولين جنسيًا الذين لا يتناسبون مع الفئات الثنائية. ومع ذلك، هناك خطوات يمكننا اتخاذها لتقليل مخاطر زيادة التحيزات الاجتماعية في أنظمة الذكاء الاصطناعي. يتمثل أحد الأساليب في التأكد من أن البيانات المستخدمة لتدريب خوارزميات الذكاء الاصطناعي تعكس وجهات نظر مختلفة. يجب على الشركات العمل مع المجتمعات المهمشة لجمع بيانات أكثر شمولاً وتعديل خوارزمياتها وفقًا لذلك. يجب عليهم أيضًا اختبار أنظمة الذكاء الاصطناعي الخاصة بهم باستخدام تقنيات مثل التحقق المتبادل وتحليل الخطأ لتحديد أي تحيزات غير مقصودة. بالإضافة إلى ذلك، يجب على الشركات النظر في إنشاء ضمانات مثل عمليات المراجعة البشرية أو تزويد المستخدمين بخيارات لتصحيح سوء التعرف على الجنس. في الختام، في حين أن الذكاء الاصطناعي قد غير العديد من الصناعات، فإن تطبيقه في تحديد نوع الجنس يثير مخاوف بشأن إدامة التحيزات الاجتماعية الحالية. من خلال التأكد من أن البيانات المستخدمة لتدريب خوارزميات الذكاء الاصطناعي تعكس وجهات نظر مختلفة، واختبارها بحثًا عن التحيز وإنشاء ضمانات، يمكن للشركات التخفيف من هذه المشكلة وجعل منتجاتها في متناول الجميع.
كيف تخاطر أنظمة الذكاء الاصطناعي بتعزيز التحيزات الاجتماعية عند تصنيف الهوية الجنسية أو التنبؤ بها ؟
يمكن تدريب أنظمة الذكاء الاصطناعي التي تعتمد على البيانات من المصادر البشرية على التعرف على سمات محددة مرتبطة بجنس معين، مثل طول الشعر أو نغمة الصوت، والتي يمكن أن تديم الصور النمطية والتحيزات الحالية ضد جنس معين. بالإضافة إلى ذلك، إذا تم استخدام المعلومات الشخصية للفرد في تدريب هذه الخوارزميات، فقد تعكس افتراضات قديمة حول أدوار وهويات الجنسين، مما يؤدي إلى تنبؤات أو تصنيفات متحيزة.