هل يمكن لنهج الشواذ أن تقدم إرشادات بشأن التطبيق الأخلاقي للذكاء الاصطناعي في السياسة العامة والحوكمة وصنع القرار القانوني ؟ أصبح الذكاء الاصطناعي جزءًا لا يتجزأ من المجتمع الحديث، مع تطبيقات تغطي مجالات مختلفة مثل الرعاية الصحية والتعليم والنقل والتمويل وإنفاذ القانون وحتى الترفيه. مع استمرار نموها، تزداد الحاجة إلى إرشادات أخلاقية تحكم طرحها. أحد الأساليب التي قد توفر التوجيه هو نظرية غريبة تقدم رؤى فريدة حول القضايا المتعلقة بالهوية والتمثيل وديناميكيات السلطة والعدالة الاجتماعية. تبحث هذه الورقة في كيف يمكن للنهج الغريبة أن تساعد في تطوير معايير أخلاقية لتطبيق الذكاء الاصطناعي في السياسة العامة والحوكمة وصنع القرار القانوني.
الجانب الأول من أخلاقيات الذكاء الاصطناعي هو التخفيف من التحيز، حيث يتم تصميم الخوارزميات لتقليل النتائج التمييزية. وفقًا لنظرية الكوير، تعكس جميع التقنيات القيم والهياكل المجتمعية، بما في ذلك تلك المضمنة في التصميم الخوارزمي.
قد تؤدي أنماط اللغة الجنسانية إلى إدامة الصور النمطية عن النساء والمتحولين جنسياً، في حين أن أنظمة التعرف على الوجه قد يكون لها معدلات خطأ أعلى عند تحديد الأفراد غير الثنائيين. لذلك، يمكن أن يساعد استخدام وجهات نظر غريبة المطورين على تجنب هذه المزالق من خلال تعزيز الشمولية والتنوع في مشاريعهم.
جانب مهم آخر من أخلاقيات الذكاء الاصطناعي هو المساءلة، مما يعني أن المستخدمين بحاجة إلى معرفة كيفية جمع البيانات واستخدامها بواسطة الآلات. تؤكد نظرية الكوير على أهمية الإرادة الشخصية والاستقلالية في تشكيل هوية الفرد، وهو ما يتوافق مع مبدأ الموافقة المستنيرة. من خلال الشفافية بشأن جمع البيانات واستخدامها، يمكن للأشخاص اتخاذ قرارات مستنيرة حول ما إذا كانوا يريدون مشاركة معلوماتهم مع أنظمة الذكاء الاصطناعي.
يمكن أن يؤدي دمج حماية الخصوصية في التعلم الآلي إلى منع الوصول غير المصرح به إلى البيانات الحساسة.
يمكن لمناهج Queer تعزيز ممارسات الذكاء الاصطناعي العادلة من خلال تحدي هياكل السلطة التقليدية. هناك اختلال في توازن القوى بين أصحاب المصلحة المشاركين في تطوير وتنفيذ تقنيات الذكاء الاصطناعي، مثل الشركات والحكومات والأفراد.
ترى نظرية كوير أن الفئات المهمشة يجب أن تكون لها مشاركة وتمثيل متساويين في عمليات صنع القرار. يتطلب إنشاء مساحات آمنة لسماع أصوات متنوعة والتعرف على التجارب الفريدة للمجتمعات المتنوعة.
يمكن لوجهات نظر المثليين تعزيز الإطار القانوني الذي يحكم تطبيق الذكاء الاصطناعي.
تعتمد المحاكم بشكل متزايد على الخوارزميات للتنبؤ بعوامل الخطر للسلوك الإجرامي، مع ما يترتب على ذلك من آثار على العدالة العرقية. باستخدام نظرية الكوير، يمكن للقضاة التفكير في كيفية إدامة التحيزات الخوارزمية للعنصرية أو عدم المساواة بين الجنسين في صنع القرار بناءً على نماذج التنبؤ. قد يفكرون أيضًا في تدابير بديلة، مثل برامج التدخل المجتمعي، لمعالجة القضايا الاجتماعية بدلاً من مجرد معاقبة الجناة.
تقدم مناهج Queer رؤى قيمة حول التنفيذ الأخلاقي للذكاء الاصطناعي في السياسة العامة والحوكمة وصنع القرار القانوني. من خلال تعزيز الشمولية والشفافية والمساءلة والإنصاف، يمكن للمطورين وصانعي السياسات إنشاء أنظمة تكنولوجية أكثر عدلاً وإنسانية تفيد جميع أفراد المجتمع.
هل يمكن للنهج الغريبة أن توفر التوجيه بشأن التطبيق الأخلاقي للذكاء الاصطناعي في السياسة العامة والحوكمة وصنع القرار القانوني ؟
من بين النهج الغريبة، لا يوجد إجماع عالمي على النشر الأخلاقي للذكاء الاصطناعي (AI) في السياسة العامة والحوكمة وصنع القرار القانوني. بينما يجادل بعض العلماء بالفوائد المحتملة التي يمكن أن يجلبها الذكاء الاصطناعي لهذه المجالات، يحذر آخرون من مخاطره ويقدمون إطارًا بديلاً لمعالجتها.