تم تصميم خوارزميات الذكاء الاصطناعي لتحليل ومعالجة كميات كبيرة من البيانات بسرعة ودقة. يمكن استخدامها للتنبؤ بسلوك المستخدم بناءً على هذه البيانات. ومع ذلك، هناك قلق من أن هذه الخوارزميات قد تعزز الصور النمطية والتحيزات الحالية، لا سيما فيما يتعلق بالهوية الجنسية. عندما تفسر أنظمة الذكاء الاصطناعي السلوك بين الجنسين أو يتم تحديدها على أنها ذكر أو أنثى، يمكن أن تديم التحيزات المجتمعية منذ قرون. ويمكن أن يؤدي ذلك إلى التمييز وعدم المساواة وحتى العنف ضد الأفراد الذين لا يتوافقون مع الأدوار التقليدية للجنسين. على سبيل المثال، إذا حددت الخوارزمية شخصًا ما على أنه «أنثى» بناءً على عادات التسوق الخاصة بهم، فقد توصي بمنتجات أو خدمات ترضي مصالح المرأة، بدلاً من تلك التي ستفيدها على قدم المساواة بغض النظر عن الجنس. تتجاوز المخاطر المحتملة المرتبطة بالتحيز الخوارزمي مجرد السلوك بين الجنسين ؛ وهي تمتد إلى أشكال أخرى من الهوية، مثل العرق والدين والتوجه الجنسي والعمر. في هذه المقالة، ننظر إلى بعض الطرق التي يمكن لأنظمة الذكاء الاصطناعي من خلالها إدامة الصور النمطية الضارة، وكيف يمكننا منعها من القيام بذلك.
إحدى الطرق التي يمكن لأنظمة الذكاء الاصطناعي من خلالها إدامة الصور النمطية الضارة هي من خلال جمع البيانات الشخصية وتحليلها. تجمع أنظمة الذكاء الاصطناعي كميات هائلة من المعلومات حول سلوك المستخدمين، بما في ذلك ما يبحثون عنه عبر الإنترنت، والمواقع التي يزورونها وما يشترونه. يمكن بعد ذلك استخدام هذه البيانات لإنشاء نماذج تتنبأ بالسلوك المستقبلي. غالبًا ما يتم تدريب هذه النماذج على النماذج التاريخية وبالتالي تعكس التحيزات الموجودة في السلوك السابق.
على سبيل المثال، إذا استخدمت شركة تاريخ الشراء السابق للتنبؤ بالمشتريات المستقبلية، فقد يكون من المرجح أن تقدم ملابس نسائية لامرأة وملابس رجال للزوج. وهذا يعزز فكرة أن النساء يجب أن يرتدين فقط أنواعًا معينة من الملابس وأن الرجال يجب أن يتسوقوا فقط لبعض الأشياء.
مشكلة أخرى في أنظمة الذكاء الاصطناعي هي أنه يمكنها تفسير البيانات بطريقة تعكس الأعراف الاجتماعية الحالية.
على سبيل المثال، إذا كان نظام التعرف على الصور يحدد الأشخاص بناءً على ملامح الوجه، فقد يشير ذلك إلى أن النساء لديهن شعر أطول والرجال لديهم شعر أقصر. يمكن أن يؤدي هذا الافتراض إلى خطأ في التعرف على الأفراد المتحولين جنسياً الذين لا يتطابقون مع الأدوار التقليدية للجنسين.
بالإضافة إلى ذلك، يمكن لأنظمة الذكاء الاصطناعي استخدام لغة مشفرة على أنها ذكورية أو أنثوية وتعزز استخدام اللغة الجنسانية، والتي ستستبعد الأفراد غير الثنائيين. يمكن أن تكون عواقب التحيز الخوارزمي وخيمة ؛ يمكن أن تؤدي إلى التمييز ضد الفئات المهمشة بالفعل من قبل المجتمع، مثل مجتمع LGBTQ + ومجتمعات المعوقين. لحسن الحظ، هناك خطوات يمكننا اتخاذها للتخفيف من المخاطر المرتبطة بالتحيز الخوارزمي. يتمثل أحد الأساليب في ضمان تدريب أنظمة الذكاء الاصطناعي باستخدام مجموعات بيانات مختلفة حتى لا تديم الصور النمطية عن أي مجموعة. نهج آخر هو استخدام الإشراف البشري في تفسير نتائج هذه الخوارزميات. يمكن للأشخاص المساعدة في تحديد وتصحيح الأخطاء التي يرتكبها نظام الذكاء الاصطناعي. أخيرًا، يمكننا إنشاء قواعد تتطلب من الشركات الكشف عن كيفية عمل خوارزمياتها والمعلومات التي تجمعها من المستخدمين. من خلال اتخاذ هذه الخطوات، يمكننا منع التحيزات الضارة من أن تكون جزءًا لا يتجزأ من أنظمة الذكاء الاصطناعي لدينا وتعزيز التقنيات الأكثر شمولاً. في الختام، بينما تقدم أنظمة الذكاء الاصطناعي العديد من الفوائد، فإنها تشكل أيضًا خطرًا بإدامة الصور النمطية الضارة حول الهوية الجنسية. يجب أن نكون يقظين في ضمان أن أنظمة الذكاء الاصطناعي لدينا لا تديم التحيزات الحالية، ولكن بدلاً من ذلك تعزز المساواة والشمول لجميع الناس. من خلال العمل معًا لحل هذه المشكلة، يمكننا بناء مستقبل أفضل للجميع.
ما هي المخاطر المحتملة للتحيزات الخوارزمية عندما تفسر أنظمة الذكاء الاصطناعي السلوك أو الهوية الجنسية ؟
يمكن أن تؤدي التحيزات الخوارزمية إلى مخاطر مختلفة تتعلق بتفسير السلوك والهوية الجندرية في أنظمة الذكاء الاصطناعي (AI). أحد المخاطر هو أن الخوارزميات يمكن أن تعزز الصور النمطية والأعراف الاجتماعية الحالية المتعلقة بالجنس من خلال إدامة الافتراضات الخاطئة حول كيفية تصرف الرجال والنساء أو ظهورهم في مواقف مختلفة.