الولايات المتحدة تصدر 10 مبادئ تأمل من خلالها جعل الذكاء الاصطناعي أكثر أماناً

3 دقائق
مصدر الصورة: براندون داي/ أنسبلاش

أصدر البيت الأبيض 10 مبادئ للوكالات الحكومية لكي تلتزم بها عند اقتراح لوائح ناظمة للذكاء الاصطناعي للقطاع الخاص.

تُعد هذه الخطوة أحدث تطور لمبادرة الذكاء الاصطناعي الأميركية، التي أطلقها الرئيس ترامب بموجب أمر تنفيذي في أوائل العام الماضي بهدف إنشاء إستراتيجية للذكاء الاصطناعي، كما أنها تمثل جزءاً من المساعي المتواصلة للحفاظ على الدور القيادي للولايات المتحدة في هذا المجال.

وتتضمن المبادئ التي أصدرها مكتب سياسات العلوم والتكنولوجيا في البيت الأبيض (OSTP) 3 أهداف رئيسية: ضمان المشاركة العامة، والحد من التجاوزات التنظيمية، والأهم من ذلك: تعزيز الذكاء الاصطناعي الجدير بالثقة والذي يتسم بالنزاهة والشفافية والأمان. تقول لين باركر، نائبة مدير شؤون التكنولوجيا في البيت الأبيض، خلال مؤتمر صحفي: لقد تعمدنا تحديد هذه المبادئ بصورة عامة، لكي تسمح لكل وكالة بأن تضع لوائح تنظيمية أكثر تحديداً تتناسب مع القطاع الذي يخصها.

وعلى صعيد التطبيق، سيُطلب من الوكالات الفدرالية الآن تقديم مذكرة إلى مكتب OSTP لشرح الكيفية التي تحقق بها أي لائحة تنظيمية مقترحة متعلقة بالذكاء الاصطناعي المبادئ المفروضة. على الرغم من أن المكتب لا يمتلك صلاحية رفض اللوائح التنظيمية، إلا أن هذا الإجراء قد يوفر الضغط والتنسيق اللازمين لدعم معيار معين.

يقول ر. ديفيد إيدلمان، مدير مشروع التكنولوجيا والاقتصاد والأمن القومي في معهد إم آي تي: "يحاول مكتب OSTP إنشاء وسيلة للفلترة التنظيمية". ويضيف: "إن عملية كهذه تبدو بمنزلة محاولة معقولة للغاية لإدراج ضبط الجودة في سياستنا الخاصة بالذكاء الاصطناعي".

المبادئ هي كالتالي (وفق صياغتي الشخصية):

  1. ثقة عامة الناس في الذكاء الاصطناعي: يتوجب على الحكومة أن تقدّم الدعم لتطوير تطبيقات ذكاء اصطناعي موثوقة، ومتينة وجديرة بالثقة.
  2. المشاركة العامة: يجب أن تتاح لعامة الناس فرصة تقديم الملاحظات وإبداء الآراء في جميع مراحل عملية وضع القواعد.
  3. السلامة العلمية وجودة المعلومات: يجب أن تستند القرارات المتعلقة بالسياسات إلى العلم.
  4. تقييم المخاطر وإدارتها: يجب على الوكالات أن تحدد ماهية المخاطر بنوعيها المقبول والمرفوض.
  5. الفوائد والتكاليف: يجب على الوكالات أن تُنعِم النظر في الآثار الاجتماعية لجميع اللوائح التنظيمية المقترحة.
  6. المرونة: يجب على أي نهج يتم اتباعه أن يكون قادراً على التكيف مع التغيرات والمستجدات السريعة التي تطرأ على تطبيقات الذكاء الاصطناعي.
  7. النزاهة وعدم التمييز: يتوجب على الوكالات أن تتأكد من أن أنظمة الذكاء الاصطناعي لا تميز بشكل غير قانوني.
  8. الإفصاح والشفافية: لن يثق عامة الناس في الذكاء الاصطناعي إلا إذا كان يعلم متى وكيف يتم استخدامه.
  9. السلامة والأمن: يجب على الوكالات الإبقاء على كافة البيانات التي تستخدمها أنظمة الذكاء الاصطناعي في حالة سليمة وآمنة.
  10. التنسيق بين الوكالات: يتعين على الوكالات أن تتحدث إلى بعضها البعض لتكون متوافقة فيما بينها، ويمكن التنبؤ بها في السياسات المتعلقة بالذكاء الاصطناعي.

وتشير الخطة المقترحة حديثاً إلى وجود تحول ملحوظ عن موقف البيت الأبيض قبل أقل من عامين، وذلك عندما قال الأشخاص العاملون في إدارة الرئيس ترامب إنه ليس هناك نية لوضع إستراتيجية وطنية للذكاء الاصطناعي. بل قالت الإدارة بدلاً من ذلك إن تخفيض التدخل الحكومي إلى الحد الأدنى كان أفضل وسيلة لمساعدة هذه التكنولوجيا على الازدهار.

ولكن مع تزايد عدد الحكومات التي تستثمر في الذكاء الاصطناعي بصورة مكثفة حول العالم، وخاصة الصين، فقد شعرت الولايات المتحدة بضغوط كبيرة لكي تحذو حذو الآخرين. وخلال المؤتمر الصحفي، عرض مسؤولو الإدارة نهجاً منطقياً جديداً لزيادة دور الحكومة في تطوير الذكاء الاصطناعي.

يقول مايكل كراتسيوس مدير شؤون التكنولوجيا في البيت الأبيض: "إن المبادئ التنظيمية للذكاء الاصطناعي في الولايات المتحدة توفر إرشادات رسمية، وتحد الشكوك التي تساور المبتكرين بشأن كيفية تعامل حكومتهم مع تنظيم تقنيات الذكاء الاصطناعي". ويضيف أن هذا سيحفز الابتكار، مما يسمح للولايات المتحدة بصياغة مستقبل التكنولوجيا على الصعيد العالمي، ومواجهة التأثيرات من جانب الأنظمة الاستبدادية.

ويمكن حدوث هذا من خلال عدة طرق. وإذا جرت الأمور بصورة جيدة، فسوف تشجع الوكالات على توظيف المزيد من الموظفين من ذوي الخبرة التقنية، ووضع تعريفات ومعايير للذكاء الاصطناعي الجدير بالثقة، وتؤدي إلى تنظيم أكثر حكمة بشكل عام. أما إذا جرت الأمور بصورة سيئة، فقد تمنح الوكالات الحوافز التي تدفعها إلى تجنب المتطلبات، أو وضع عوائق بيروقراطية في وجه اللوائح التنظيمية اللازمة لضمان الحصول على ذكاء اصطناعي جدير بالثقة.

ويبدو أن إيدلمان متفائل، حيث يقول: "إن إشارة البيت الأبيض للذكاء الاصطناعي الجدير بالثقة تمثل أمراً في غاية الأهمية، فهو يوجه بذلك رسالة مهمة إلى جميع الوكالات".

المحتوى محمي