ما هي عدالة الذكاء الاصطناعي؟
هي مجموعة المبادئ الأخلاقية لضمان تصميم أنظمة الذكاء الاصطناعي ونشرها بطريقة عادلة وغير متحيزة، وتتضمن معالجة التحيزات المحتملة التي قد توجد في البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، وكذلك في الخوارزميات وعمليات صنع القرار التي تستخدمها هذه الأنظمة.
مقاييس عدالة الذكاء الاصطناعي
هناك العديد من تعريفات العدالة المختلفة، ويعتمد التعريف على السياق الذي يتم فيه اتخاذ القرار، إليك بعض المقاييس لعدالة الذكاء الاصطناعي:
- العدالة من خلال سرية المعلومات: هذا هو التعريف الكلاسيكي حيث تحذف السمات التي تشكّل تحيزاً من الخوارزمية وتفترض أن النموذج سيكون عادلاً، وقد ترتبط العديد من الميزات الأخرى ارتباطاً جوهرياً بالسمات التي تؤدي للتحيز مثل الجنس والعرق ما يؤدي لظهور التحيز في نموذج التعلم الآلي.
- عدالة التكافؤ الديموغرافي: ينصب التركيز هنا على مساواة معدل الاختيار بين المجموعات، إذ يجب أن تكون احتمالية النتيجة الإيجابية للنموذج هي نفسها بغض النظر عما إذا كان الشخص في المجموعة التي تحمل وسم محدد.
- تكافؤ الفرص: يركّز هذا المقياس على القوة التنبؤية للنموذج، بحيث ينصب التركيز على محاولة الحصول على نفس المعدل الإيجابي الحقيقي لمجموعات التدريب، كما يجب أن تكون احتمالية وجود شخص في فئة إيجابية متساوية لكل من أعضاء المجموعة مهما كانت فئتهم.
- احتمالات متساوية: يركّز هذا المقياس على الحصول على المعدل الإيجابي نفسه الحقيقي بالإضافة إلى المعدل الإيجابي الكاذب لمجموعات التدريب؛ أي أن احتمالية تعيين شخص في الفئة الإيجابية بشكلٍ صحيح يؤدي لنتيجة إيجابية واحتمال تعيين شخص في فئة سلبية بشكل غير صحيح يؤدي إلى نتيجة إيجابية أي يجب أن يكون المقياس هو نفسه لأعضاء المجموعة دون تحيز لسمة مثل الجنس أو العرق أو المكان وغيره.
مستقبل عدالة الذكاء الاصطناعي؟
ترتبط عدالة الذكاء الاصطناعي ارتباطاً وثيقاً بإمكانية تفسير نماذج الذكاء الاصطناعي وشفافية العملية التي تم إنشاء هذه النماذج بها، إذ يعد دعم حوكمة الذكاء الاصطناعي طريقة فعّالة لاكتساب هذا المستوى العالي من التفسير والشفافية، للتأكد من أن نماذج الذكاء الاصطناعي تتوافق مع اللوائح التي وضعها الاتحاد الأوروبي. وتعد فكرة عدالة الذكاء الاصطناعي مجالاً نشطاً للبحث بحيث يتساءل الجميع عن الآثار المترتبة على استخدام الذكاء الاصطناعي في عملية صنع القرار.