الذكاء الاصطناعي المسؤول RESPONSIBLE AI

1 دقيقة

ما هو الذكاء الاصطناعي المسؤول؟

إطار حوكمة يوثق كيفية مواجهة منظمة معينة للتحديات المتعلقة بالذكاء الاصطناعي من وجهة نظر أخلاقية وقانونية. يتضمن هذا الإطار تفاصيل تجيب عن العديد من التساؤلات مثل متى يمكن جمع واستخدام البيانات، وكيف يجب تقييم نماذج الذكاء الاصطناعي، وما هي الطريقة الأمثل لنشر ومراقبة تلك النماذج. ويمكن أن يحدد أيضاً من ستتم محاسبته في حال كانت النتائج سلبية؛ حيث يُعد حل الغموض المرتبط بمن ستقع على عاتقه المسؤولية في حال وقوع خطأ ما المحرك الأساسي لمبادرات الذكاء الاصطناعي المسؤول.

عند الحديث عن حوكمة الذكاء الاصطناعي في الوقت الراهن فمن المتوقع أن تقوم الشركات بوضع تشريعات ذاتية. ويعني ذلك إنشاء وتطبيق مبادئ الذكاء الاصطناعي المسؤول الخاصة بها. وبالفعل هناك العديد من الشركات التي تملك مبادئها الخاصة اليوم مثل جوجل ومايكروسوفت وآي بي إم. وعلى الرغم من الاختلاف ستسعى جميعها لتحقيق نفس الغاية. وهي إنشاء أنظمة ذكاء اصطناعي قابلة للتفسير وعادلة وآمنة وتحترم خصوصية المستخدمين.

لكن المشكلة الأساسية التي تنتج عن الاختلاف أن تلك المبادئ قد لا تُطبق بشكل متناسق بين الصناعات. بالإضافة إلى عدم امتلاك الشركات الأصغر الموارد اللازمة لإنشاء مبادئ خاصة بها. ومن الحلول المقترحة لذلك تبني جميع الشركات نفس مبادئ الذكاء الاصطناعي المسؤول. فعلى سبيل المثال نشرت المفوضية الأوروبية مؤخراً وثيقة بعنوان المبادئ الأخلاقية للذكاء الاصطناعي الجدير بالثقة. وربما يؤدي استخدام هذه الوثيقة إلى مساعدة الشركات على ضمان أن أنظمتها تقابل نفس المعايير.

المحتوى محمي