يتم استخدام الذكاء الاصطناعي بشكل متزايد في العديد من المجالات المختلفة، بما في ذلك الرعاية الصحية والتمويل والتعليم وحتى الترفيه. بينما أحدثت الذكاء الاصطناعي ثورة في هذه الصناعات، هناك مخاوف بشأن قدرتها على إدامة التحيزات ضد مجموعات معينة من الناس. على وجه الخصوص، أثار الباحثون مخاوف من أن أنظمة الذكاء الاصطناعي قد تميز ضد أفراد مجتمع المثليات والمثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسانية (LGBT). للحد من هذا الخطر، تم تطوير آليات مختلفة لتحديد ومعالجة التحيز في أنظمة الذكاء الاصطناعي. ومع ذلك، لا يزال من غير الواضح مدى فعالية هذه الآليات في الممارسة العملية.
إحدى الآليات التي تم اقتراحها للكشف عن تحيز الذكاء الاصطناعي ضد مجموعات المثليين هي تدقيق البيانات. يتضمن ذلك النظر في البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي والتأكد من أنه يمثل جميع المجموعات، بما في ذلك تلك الموجودة في مجتمع LGBT. من خلال تحديد أي ثغرات في مجموعة البيانات، يمكن للمهندسين اتخاذ خطوات لضمان عدم تمييز نماذجهم ضد مجموعات فرعية معينة. على سبيل المثال، إذا تم تدريب نموذج الذكاء الاصطناعي باستخدام الصور الطبية للأزواج من جنسين مختلفين ولكن ليس الأزواج من نفس الجنس، فقد يكون أقل دقة في تشخيص المرض بين الأشخاص المثليين. وبالمثل، إذا استخدم النموذج المالي بيانات الزواج من جنسين مختلفين ولكنه تجاهل زواج المثليين، فقد يقلل من احتياجات عائلات المثليين.
نهج آخر للحد من تحيز الذكاء الاصطناعي ضد مجموعات المثليين هو التدريب على العدالة الخوارزمية. يتضمن ذلك تدريب خوارزميات التعلم الآلي للتعرف على أنماط عدم المساواة في البيانات وتعديل عملية صنع القرار وفقًا لذلك.
على سبيل المثال، يمكن تدريب خوارزمية مصممة للتنبؤ بمعدلات الموافقة على القروض على البيانات التاريخية التي تظهر أن المقرضين أكثر عرضة لرفض القروض للمتقدمين من السود واللاتينيين من البيض. من خلال التعرف على هذه الأنماط، يمكن للخوارزمية تعلم معاملة جميع المتقدمين بشكل عادل بغض النظر عن العرق أو العرق.
آلية ثالثة للحد من تحيز الذكاء الاصطناعي ضد مجتمع الميم هي المراجعة البشرية. في هذا النهج، يشارك الأشخاص في عملية تقييم أداء أنظمة الذكاء الاصطناعي ووصف أي حالات عندما تبدو متحيزة.
على سبيل المثال، إذا كان نظام الذكاء الاصطناعي يوصي باستمرار بخيارات علاج مختلفة للرجال والنساء الذين يعانون من نفس الحالات الطبية، فيمكن للمراجعين التدخل وتصحيح المشكلة. يمكن أن تساعد المراجعة البشرية أيضًا في تحديد ومعالجة أنواع أخرى من التحيز، مثل التفرقة العمرية أو القدرة. على الرغم من هذه الآليات، هناك أدلة على أن أنظمة الذكاء الاصطناعي لا تزال تميز ضد أفراد مجتمع المثليين. وجدت دراسة حديثة أن برامج التعرف على الوجه من المرجح أن تخطئ في تعريف المتحولين جنسياً على أنهم جنس مختلف عن الأشخاص المتوافقين مع الجنس. وبالمثل، وجد تقرير صادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) أن تقنية التعرف على الصوت كانت أقل دقة في تحديد أصوات الإناث مقارنة بأصوات الذكور. تشير هذه النتائج إلى أنه حتى أنظمة الذكاء الاصطناعي الأكثر تقدمًا قد لا تكون محصنة ضد التحيز ضد مجموعات معينة.
بشكل عام، في حين تم إحراز تقدم في تحديد وتخفيف تحيز الذكاء الاصطناعي ضد السكان المثليين، هناك الكثير من العمل الذي يتعين القيام به. يجب على الباحثين والمهندسين وواضعي السياسات الاستمرار في تطوير أساليب جديدة وضمان تنفيذ الأساليب الحالية بشكل فعال. عندها فقط يمكننا إنشاء أنظمة ذكاء اصطناعي شاملة ومنصفة حقًا تخدم جميع أفراد المجتمع على قدم المساواة.
ما هي الآليات الموجودة لتحديد وتخفيف تحيز الذكاء الاصطناعي ضد المثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسانية وما مدى فعاليتها في الممارسة العملية ؟
توجد حاليًا أدوات مختلفة لتحديد وتخفيف تحيز الذكاء الاصطناعي ضد مجتمع الميم. أحد الأساليب الأكثر شيوعًا هو المعالجة المسبقة للبيانات، والتي تتضمن تنظيف وتصفية مجموعات البيانات لمعالجة أي تحيزات محتملة. نهج آخر هو استخدام خوارزميات التعلم الآلي التي يمكن أن تتعلم من أمثلة مجموعات البيانات غير المتحيزة. بالإضافة إلى ذلك، يمكن استخدام طرق التدريب النشطة لتحديد القيم المتطرفة في مجموعة بيانات التدريب التي قد تؤدي إلى التحيز.