1. التحيز الجنساني هو قضية منهجية أثرت على المجتمعات لعدة قرون. ومع ذلك، يمكن لنظم الذكاء الاصطناعي أن تديم عن غير قصد هذه التحيزات، مما يؤدي إلى معاملة الفئات المهمشة مثل الأقليات الجنسية والجنسانية بشكل غير عادل. وهذا يشكل تحديات كبيرة للجهود التي يبذلها المجتمع لتعزيز المساواة والإدماج.
2. ومن الأمثلة على الكيفية التي يمكن بها لمنظمة العفو الدولية تعزيز التحيز ضد الأقليات الجنسية والجنسانية توظيف أماكن العمل. عندما يتم استخدام خوارزميات الذكاء الاصطناعي لفحص المرشحين للوظائف، فإنهم غالبًا ما يعتمدون على البيانات التاريخية التي يمكن أن تكون متحيزة تجاه نفس الجنس أو التوجه الجنسي. على سبيل المثال، إذا كان معظم الموظفين السابقين من المهندسين الذكور، فقد تفضل الخوارزمية الرجال عند اختيار المرشحين للوظائف الهندسية المستقبلية. ومن شأن هذا النهج أن يضر بالمهندسات وغيرهن من الجنسين الممثلة تمثيلا ناقصا، اللواتي قد يتمتعن بمؤهلات متساوية ولكنهن يفتقرن إلى تكافؤ الفرص بسبب هويتهن.
3. هناك طريقة أخرى يؤثر بها الذكاء الاصطناعي عن غير قصد على التحيز بين الجنسين وهي من خلال أنظمة التوصية.
على سبيل المثال، قد توصي منصات التسوق عبر الإنترنت مثل Amazon بعناصر بناءً على مشتريات المستخدمين السابقة ذات التركيبة السكانية المماثلة. إذا كان غالبية المتسوقين الذين اشتروا العنصر من الرجال من جنسين مختلفين، فيمكن للمنصة أن تفترض أن جميع العملاء هم أيضًا رجال من جنسين مختلفين ويقدمون منتجات مماثلة. هذا يستثني المستخدمين غير الثنائيين الذين قد يفضلون منتجات من أنواع أخرى غير تلك التي توصي بها الخوارزمية.
4. لمعالجة هذه المشكلات، يجب على المطورين دمج الإنصاف والشمولية في التصميم الخوارزمي. يجب عليهم تدريب الآلات باستخدام مجموعات بيانات مختلفة تعكس تنوع المجتمع لمعالجة التحيزات. ويجب عليها أيضا أن تنشئ آليات لرصد وتحديد التمييز المحتمل واتخاذ الإجراءات التصحيحية المناسبة.
أخيرًا، يجب عليهم التفكير في تطوير نماذج تسمح للأشخاص بالانسحاب من الخدمات الشخصية إذا شعروا أنهم مستهدفون أو تم وصفهم بشكل غير عادل.
5. يتطلب تعزيز الإنصاف والشمولية في الذكاء الاصطناعي التعاون بين مختلف أصحاب المصلحة، بما في ذلك صانعي السياسات والشركات والباحثين والناشطين. يجب أن تضمن السياسات تصميم الخوارزميات بمسؤولية لتجنب إدامة التحيز ضد الفئات المهمشة. يجب أن تستثمر الشركات في برامج التدريب والتعليم التي تساعد الموظفين على فهم كيفية عمل الذكاء الاصطناعي وكيف يؤثر على المساواة. يجب على الباحثين إجراء بحث لتطوير خوارزميات أكثر دقة وعدالة، بينما يجب على النشطاء الدعوة إلى سياسات تحمي حقوق الأقليات.
6. في الختام، للذكاء الاصطناعي فوائد كبيرة ولكنه يمثل أيضًا تحديات فريدة فيما يتعلق بالتحيز الجنساني واستبعاد الأقليات الجنسية. يجب أن يكون المطورون على دراية بهذه المشكلة عند تصميم الأنظمة والعمل مع أصحاب المصلحة الآخرين لتعزيز الإنصاف والشمول. من خلال القيام بذلك، يمكننا إنشاء مجتمع أكثر عدلاً ومساواة حيث يتم معاملة الجميع بشكل عادل بغض النظر عن هويتهم.
كيف يمكن لأنظمة الذكاء الاصطناعي أن تديم عن غير قصد التحيزات ضد الأقليات الجنسية والجنسانية وما هي التدخلات اللازمة لضمان الإنصاف والشمولية في التصميم الخوارزمي ؟
قد تعكس نظم الذكاء الاصطناعي عن غير قصد القوالب النمطية الاجتماعية والتحيزات التي تضر بالأقليات الجنسية والجنسانية. يمكن العثور على هذه التحيزات في نماذج اللغة وتقنية التعرف على الوجه والخوارزميات الأخرى المستخدمة لاتخاذ القرار. لمعالجة هذا الأمر، اقترح الباحثون عدة حلول، مثل جمع البيانات من مجموعة متنوعة من المصادر، واختبار التحيز، والإشراف على الأفراد خلال مراحل التدريب والنشر في الذكاء الاصطناعي.