غالبًا ما يواجه المثليون والمثليات ومزدوجو الميل الجنسي ومغايرو الهوية الجنسانية التمييز على أساس هويتهم، مما قد يكون له عواقب سلبية في مختلف جوانب الحياة مثل التوظيف والرعاية الصحية والتعليم والإسكان العام. بالإضافة إلى التحيز والتعصب الأعمى من الأفراد، هناك أيضًا أشكال منهجية من التحيز يمكن أن تزيد من هذا التمييز، بما في ذلك الخوارزميات المستخدمة في أنظمة الذكاء الاصطناعي (AI). تدرس هذه المقالة كيف أن التحيزات الخوارزمية تديم التمييز ضد المثليين وتناقش استراتيجيات معالجة هذه التحيزات بشكل أخلاقي.
الخوارزميات هي مجموعات من التعليمات التي تخبر أجهزة الكمبيوتر بما يجب القيام به. وهي مصممة لاتخاذ القرارات على أساس المدخلات، وغالبا ما تستخدم التحليل الإحصائي لتحديد الأنماط والاتجاهات. ومع ذلك، عندما تكون البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي غير مكتملة أو متحيزة، يمكن أن تؤدي إلى أخطاء في صنع القرار تؤدي إلى نتائج غير عادلة. على سبيل المثال، قد يفتقد نظام الذكاء الاصطناعي المدرب على تحليل طلبات العمل المتقدمين المؤهلين الذين لديهم أسماء غير عادية أو خصائص غير مناسبة للجنس، مما يؤدي إلى نقص التنوع في ممارسات التوظيف. وبالمثل، قد يكون نظام الذكاء الاصطناعي المصمم للكشف عن معاملات بطاقات الائتمان الاحتيالية أقل عرضة للإبلاغ عن المشتريات التي يقوم بها الأشخاص المتحولين جنسياً بسبب الأنماط التاريخية للتمييز في الخدمات المالية.
هناك عدة طرق يمكن أن تؤثر بها التحيزات الخوارزمية على الأشخاص المثليين.
على سبيل المثال، يمكن لتطبيقات المواعدة التي تستخدم خوارزميات التعلم الآلي لمطابقة المستخدمين بناءً على تفضيلاتهم أن تديم الصور النمطية الضارة حول بعض التوجهات الجنسية أو الهويات الجنسية. يمكن أن تساهم هذه القوالب النمطية في الإقصاء الاجتماعي والعزلة بين المثليات والمثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسانية وتعزز الوصمات المرتبطة بهويتهم. بالإضافة إلى ذلك، قد لا تسمح التقنيات الصحية القائمة على الذكاء الاصطناعي مثل روبوتات الدردشة بالتشخيص الدقيق للحالات التي تؤثر على مرضى المثليين إذا كانوا يفتقرون إلى بيانات شاملة حول الاحتياجات المحددة لهذه الفئة من السكان. أخيرًا، ثبت أن برامج التعرف على الوجه المستخدمة بشكل شائع في إنفاذ القانون تخطئ في تحديد الأفراد المتحولين جنسيًا على أنهم جنس مختلف، مما يؤدي إلى اعتقالات واحتجازات غير لائقة.
لمعالجة هذه المخاوف الأخلاقية، يجب على الباحثين والمطورين العمل معًا لضمان أن أنظمة الذكاء الاصطناعي عادلة وشاملة. يتضمن أحد الأساليب استخدام مجموعات بيانات مختلفة تشمل الأشخاص المثليين في عملية التطوير. قد يشمل ذلك الشراكة مع منظمات مثل GLAAD أو HRC لجمع البيانات حول تجارب واحتياجات مجتمعات LGBT. هناك استراتيجية أخرى تتمثل في تصميم عمليات صنع القرار التي تأخذ في الاعتبار العديد من العوامل بدلاً من الاعتماد فقط على الفئات الثنائية مثل الذكور/الإناث أو المغايرين/المثليين. إدراكًا لتعقيدات الهوية والسلوك البشري، يمكن أن تصبح أنظمة الذكاء الاصطناعي أكثر دقة وإنصافًا بمرور الوقت. في الختام، يمكن للتشوهات الخوارزمية في الذكاء الاصطناعي أن تزيد من التمييز ضد المثليين من خلال إدامة التحيزات الاجتماعية الحالية. ومع ذلك، ومع النظر بعناية والتعاون بين الخبراء عبر التخصصات، يمكن إنشاء أنظمة الذكاء الاصطناعي التي تعزز المساواة والتمكين داخل الفئات المهمشة.
ما هو الدور الذي تلعبه التحيزات الخوارزمية في الذكاء الاصطناعي في إدامة التمييز ضد المثليين، وكيف يمكن معالجة هذه التحيزات بشكل أخلاقي ؟
يشير التحيز الخوارزمي إلى الحالة التي تؤدي فيها الخوارزميات إلى نتائج غير محايدة وغير متحيزة وتستند إلى معايير موضوعية، بل تعكس الصور النمطية الاجتماعية والتحيزات للمبرمجين. على سبيل المثال، من حيث تقنيات الذكاء الاصطناعي المنتشرة في مكان العمل، يمكن أن تؤدي مثل هذه التحيزات إلى خيارات وظيفية غير عادلة وقرارات ترقية.