ملخص: تشير الرقابة البشرية على أنظمة الذكاء الاصطناعي إلى العمليات التي تضمن التدخل البشري والمساءلة في تطوير تقنيات الذكاء الاصطناعي ونشرها. ولمعالجة المخاوف الأخلاقية، وتخفيف المخاطر، وتعزيز الثقة العامة في هذه الأنظمة، وضمان توافقها مع القيم الإنسانية والاحتياجات المجتمعية، يراقب البشر هذه الأنظمة بعدة طرق. في إحدى هذه الطرق يمكن للبشر التدخل مباشرة في عمليات الذكاء الاصطناعي وتعديل النتائج، أو تغييرها أو تصحيحها في الوقت المناسب. في الطريقة الثانية يشرف البشر على الأنظمة ويوقفون عملها عند الضرورة. أما في الطريقة الأخيرة فتبقى السلطة النهائية والمسؤولية عن اتخاذ القرار في أيدي المشغلين البشريين. ولزيادة ضمان الرقابة البشرية على أنظمة الذكاء الاصطناعي، وضعت بعض الحكومات أطراً ومبادئ توجيهية للإشراف عليها، مركّزة على اتباع نهج دقيق يجمع بين الاعتبارات التقنية والأخلاقية، ويواجه التحديات والعوائق التي تحول دون ذلك.
تشير الرقابة البشرية على أنظمة الذكاء الاصطناعي إلى العمليات التي تضمن التدخل البشري والمساءلة في تطوير تقنيات الذكاء الاصطناعي ونشرها. ومع تزايد دمج الذكاء الاصطناعي في مختلف القطاعات، بما فيها الرعاية الصحية والمالية والحوكمة، اكتسبت الحاجة إلى الرقابة الفعالة أهمية كبيرة لمعالجة المخاوف الأخلاقية، وتخفيف المخاطر، وتعزيز الثقة العامة في هذه الأنظمة، وضمان توافقها مع القيم الإنسانية والاحتياجات المجتمعية.
اقرأ أيضاً: 3 مخاطر حقيقية موثقة لاستخدام أنظمة الذكاء الاصطناعي
الرقابة البشرية على أنظمة الذكاء الاصطناعي وأنواعها
الرقابة البشرية هي مشاركة الجهات الفاعلة البشرية في تطوير أنظمة الذكاء الاصطناعي ونشرها واستخدامها، لضمان احترامها كرامة الإنسان واستقلاليته وقيمه.
يُشرف البشر على أنظمة الذكاء الاصطناعي بعدة طرق رئيسية تحدد كيفية تفاعل البشر مع هذه الأنظمة ومراقبتها طوال دورة حياتها، بما يضمن المعايير الأخلاقية والمساءلة والحوكمة الفعالة. تشمل هذه الطرق:
1- الإنسان في الحلقة (Human-In-the-Loop / HITL)
في هذا النوع من الأنظمة يمكن للمشغّل البشري التدخل مباشرة في عمليات الذكاء الاصطناعي. وقد يتضمن هذا التدخل تعديل النتائج، أو تغييرها أو تصحيحها، بناءً على الحكم البشري، خاصة في السيناريوهات التي تنطوي على آثار أخلاقية أو قرارات حاسمة، بما يتوافق مع القيم والاحتياجات الإنسانية.
2- الإنسان على الحلقة (Human-On-the-Loop / HOTL)
يؤدي البشر في هذا النوع دوراً إشرافياً؛ حيث يراقب البشر أنظمة الذكاء الاصطناعي دون تدخل مباشر بالعمليات في الوقت الفعلي، إذ يُعدّل المراقب العمليات أو يوقفها عند الضرورة، ما يضمن عدم تجاوز الحدود الأخلاقية المقبولة. يعد هذا النهج مفيداً في المواقف التي لا تحتاج إلى التدخل الفوري، لكن الحاجة إلى الرقابة لا تزال ضرورية.
3- الإنسان في القيادة (Human-In-Command / HIC)
في هذا النوع، تبقى السلطة النهائية والمسؤولية عن اتخاذ القرار في أيدي المشغلين البشريين، وهو أمر يجري تطبيقه في البيئات عالية المخاطر التي يمكن أن تكون عواقب قرارات الذكاء الاصطناعي فيها وخيمة ومهددة للحياة مثل التطبيقات العسكرية.
اقرأ أيضاً: هل سيحل الذكاء الاصطناعي محل البشر في اتخاذ القرارات العسكرية؟
يجب دمج الإشراف البشري الفعّال طوال دورة حياة الذكاء الاصطناعي بالكامل، من التطوير إلى النشر وما بعد ذلك. في أثناء مرحلة التصميم، من المهم تضمين آليات للتدخل البشري وإنشاء أنظمة يمكن للمستخدمين فهمها بسهولة. وتساعد المراقبة المستمرة خلال النشر في الحفاظ على الامتثال الأخلاقي، بينما تسمح التقييمات بعد النشر بتصحيح أي مشكلات غير متوقعة. يعمل هذا النهج الشامل بصفته ضمانة ضد التحيز في الذكاء الاصطناعي، ويحمي الحقوق الفردية، ويبني الثقة بين التكنولوجيا والمجتمع.
الحكومات تضع أُطراً ومبادئ توجيهية
لضمان الرقابة البشرية على أنظمة الذكاء الاصطناعي، وضعت بعض الحكومات أطراً ومبادئ توجيهية للإشراف عليها. على سبيل المثال، وضعت حكومة الولايات المتحدة الأميركية قواعد بشأن التطوير والاستخدام الآمن والموثوق للذكاء الاصطناعي، واتخذ الاتحاد الأوروبي خطوات مهمة نحو إنشاء أطر أخلاقية قوية للذكاء الاصطناعي، تؤكد مبادئ مثل الشفافية والإنصاف والإشراف البشري. بالإضافة إلى ذلك، تستكشف دول منظمة التعاون الاقتصادي والتنمية ومجموعة الدول السبع أطراً شاملة لتسهيل التطوير المسؤول لأنظمة الذكاء الاصطناعي.
وفي الإمارات العربية المتحدة، أصدر وزير الدولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بعد، عمر سلطان العلماء، ميثاق الإمارات لتطوير الذكاء الاصطناعي واستخدامه. يهدف هذا الميثاق إلى رسم خارطة طريق للحفاظ على الحقوق المجتمعية في دولة الإمارات عند تطوير التكنولوجيا والذكاء الاصطناعي واستعمالهما.
وضعت أيضاً منظمات مثل معهد آلان تورينج مبادئ توجيهية واضحة لنظام بيئي مسؤول للبيانات ضمن تطبيقات الذكاء الاصطناعي في القطاع العام. تتضمن هذه المبادئ التوجيهية مبادئ العدالة والمساءلة والشفافية، إلى جانب إطار حوكمة لضمان تطبيق المعايير الأخلاقية في الممارسة العملية. ويقترح مركز هارفارد أيه إس آتش (The Harvard ASH center) أن تدمج الوكالات الحكومية مدخلات المواطنين مع إعطاء الأولوية لزيادة عدد الموظفين بدلاً من استبدالهم عند دمج أنظمة الذكاء الاصطناعي في خدماتها.
اقرأ أيضاً: هل نستطيع وضع قواعد أخلاقية للذكاء الاصطناعي؟
كيف يمكن ضمان الرقابة البشرية على الذكاء الاصطناعي؟
إن الرقابة البشرية الفعّالة على أنظمة الذكاء الاصطناعي تتطلب اتباع نهج دقيق يجمع بين الاعتبارات التقنية والأخلاقية. ويتطلب اختباراً أولياً لآليات الرقابة البشرية قبل ترسيخ هذه الممارسات في السياسات. كما تتطلب الرقابة تحقيق التوازن لتخفيف المخاطر دون خنق الابتكار، وتتطلب أيضاً الشفافية في توزيع الأدوار والمسؤوليات بين أصحاب المصلحة جميعهم، بمن فيهم المصممون والمطورون والمشغلون وصناع السياسات، الذين يجب أن يشاركوا بنشاط في تحديد المسؤوليات داخل المشهد الاجتماعي التقني للذكاء الاصطناعي.
يمكن أن تساعد تدابير الشفافية الفعّالة، مثل إمكانية التتبع والتحقق، على توضيح عمليات صنع القرار وتعزيز المساءلة بين أصحاب المصلحة. وأخيراً، يمكن للمؤسسات الاستفادة من آليات الرقابة لدمج الاعتبارات الأخلاقية في تطوير الذكاء الاصطناعي على نحو نشط. ويمكن أن يساعد هذا الرصد المستمر على مواءمة تقنيات الذكاء الاصطناعي للقيم الإنسانية، وضمان انتشار فوائدها لأفراد المجتمع جميعهم، وتعزيز ثقة المستخدمين فيها.
تحديات الرقابة على الذكاء الاصطناعي
إن ضمان الرقابة البشرية في أنظمة الذكاء الاصطناعي يواجه تحديات تتعلق بقضايا التحيز والعدالة، لكن تطبيق القيود على النماذج للتخفيف من التحيزات قد يؤثر في أدائها. كما قد يؤدي إهمال المستخدم في المواقف عالية الخطورة، وافتراض قدرة البشر على استعادة السيطرة بسرعة، إلى سوء التنسيق والفشل، ففي بعض الأحيان، قد يكون التدخل البشري متأخراً أو غير فعال.
يخلق التقدم السريع في تكنولوجيا الذكاء الاصطناعي فجوات في المبادئ التوجيهية الأخلاقية القائمة، والتي غالباً ما تركز على التطوير بدلاً من المراقبة المستمرة بعد النشر. وقد لا يعالج العديد من الأطر الحالية بصورة كافية التحديات الأخلاقية التي تفرضها التكنولوجيات الناشئة. تُعقّد الهياكل التنظيمية في بعض الشركات أيضاً تنفيذ الرقابة الأخلاقية، وتضع عبء تعزيز الأخلاقيات على عاتق الأفراد بدلاً من العمليات الرسمية، ما يؤدي إلى الإرهاق وصعوبة التخلص من أولئك الذين يثيرون المخاوف الأخلاقية.
اقرأ أيضاً: ما تحدّيات حوكمة تكنولوجيا المعلومات في عصر الذكاء الاصطناعي؟
لتجاوز هذه العوائق وتحسين الرقابة البشرية على أنظمة الذكاء الاصطناعي، تزداد الحاجة للبحث الذي يؤدي إلى فهم عمل هذه الآليات وكيفية هيكلتها لتحسين التعاون بين البشر والخوارزميات. بالإضافة إلى تكامل القوانين والسياسات ذات الصلة، والحرص على الاختبار الأولي للأنظمة، مع الحفاظ على الرصد المستمر لسلوكيات الأنظمة والرقابة البشرية. من المهم أيضاً التركيز على الشفافية في اتخاذ القرارات المتعلقة بالذكاء الاصطناعي، والسماح للمستخدمين بفهم آلية عمل أنظمة الذكاء الاصطناعي المختلفة. بالإضافة إلى ذلك، فإن الالتزام الصارم بخصوصية البيانات والممارسات الأخلاقية لاستخدامها من شأنه أن يعزز ثقة المستخدم ويعزز تطوير الذكاء الاصطناعي المسؤول مع معالجة التحيزات.