ما هي المخاطر الكبرى إذا سلمنا الذكاء الاصطناعي زمام السيطرة؟

5 دقيقة
ما هي المخاطر الكبرى إذا سلمنا الذكاء الاصطناعي زمام السيطرة؟
 سارة روجرز/إم آي تي تي آر | صور غيتي

لقد أثارت منظومات الذكاء الاصطناعي الوكيلة (AI Agents) ضجة كبيرة في صناعة التكنولوجيا. فعلى عكس بوتات الدردشة، تعمل هذه الأنظمة الجديدة الرائدة خارج نطاق نافذة الدردشة، وتتنقل بين تطبيقات متعددة لتنفيذ مهام معقدة، مثل جدولة الاجتماعات أو التسوق عبر الإنترنت، استجابةً لأوامر المستخدم البسيطة. ومع مواصلة تطوير المنظومات الوكيلة لزيادة قدراتها، يبرز سؤال مهم: ما مدى السيطرة الذي نحن على استعداد للتنازل عنه، وما هو الثمن المقابل؟

مساعد أم بديل؟

نشهد أسبوعياً تقريباً إعلانات عن أطر عمل ووظائف جديدة لمنظومات الذكاء الاصطناعي الوكيلة، وتروج الشركات لهذه التكنولوجيا بصفتها وسيلة لتسهيل حياتنا من خلال إنجاز المهام التي لا يمكننا إنجازها أو لا نرغب فيه. ومن الأمثلة البارزة على ذلك "استخدام الكمبيوتر" (computer use)، وهي وظيفة تمكّن نظام كلود (Claude) من شركة أنثروبيك (Anthropic) من العمل مباشرة على شاشة الكمبيوتر لديك، و"منظومة الذكاء الاصطناعي الوكيلة العامة" مانوس (Manus)، التي يمكنها استخدام أدوات الإنترنت في مجموعة متنوعة من المهام، مثل استكشاف العملاء أو التخطيط للرحلات.

تمثل هذه التطورات تقدماً كبيراً في مجال الذكاء الاصطناعي: أنظمة مصممة للعمل في العالم الرقمي دون إشراف بشري مباشر.

تبدو الوعود مقنعة. فمن منا لا يرغب في الحصول على المساعدة في الأعمال المرهقة أو المهام التي لا وقت لديه لإنجازها؟ يمكن أن تتخذ مساعدة المنظومات الوكيلة قريباً أشكالاً مختلفة عديدة، مثل تذكيرك بأن تسأل أحد الزملاء عن بطولة كرة السلة التي يشارك فيها طفله أو العثور على صور لعرضك التقديمي المقبل. وفي غضون أسابيع قليلة، من المحتمل أن تتمكن هذه المنظومات الوكيلة من إعداد عروض تقديمية لك.

هناك أيضاً إمكانية واضحة لإحداث تغييرات جوهرية في حياة الناس. بالنسبة إلى الأشخاص الذين يعانون  المشاكل في حركة اليدين أو ضعف البصر، يمكن للمنظومات الوكيلة إنجاز المهام عبر الإنترنت استجابة لأوامر لغوية بسيطة. كما يمكن للمنظومات الوكيلة أيضاً تنسيق المساعدة المتزامنة بين مجموعات كبيرة من الأشخاص في المواقف الحرجة، مثل توجيه حركة المرور لمساعدة السائقين على مغادرة منطقة معينة بصورة جماعية في أسرع وقت ممكن عند وقوع كارثة.

ولكن هذه الرؤية المتعلقة بمنظومات الذكاء الاصطناعي الوكيلة تنطوي على مخاطر كبيرة قد يجري تجاهلها في خضم الاندفاع نحو مزيد من الاستقلالية في تنفيذ المهام. لقد أمضى فريقنا البحثي في شركة هاغينغ فيس (Hugging Face) سنواتٍ في تطبيق هذه الأنظمة والبحث في شأنها، وتشير النتائج التي توصلنا إليها مؤخراً إلى أن تطوير المنظومات الوكيلة قد يكون على أعتاب ارتكاب خطأ فادح.

اقرأ أيضاً: كبير علماء الذكاء الاصطناعي في أنثروبيك: 5 توجهات لتطور المنظومات الوكيلة في 2025

التخلي عن السيطرة، شيئاً فشيئاً

تكمن هذه المشكلة الأساسية في صميم الجانب الأكثر إثارة للاهتمام بشأن منظومات الذكاء الاصطناعي الوكيلة: فكلما زادت استقلالية نظام الذكاء الاصطناعي، زاد تخلينا عن السيطرة البشرية. صُممت منظومات الذكاء الاصطناعي الوكيلة لتكون مرنة، وقادرة على إنجاز مجموعة متنوعة من المهام التي لا تحتاج إلى برمجتها بصورة مباشرة.

بالنسبة إلى العديد من الأنظمة، أصبحت هذه المرونة متاحة لأنها مبنية بالاعتماد على نماذج لغوية كبيرة لا يمكن التنبؤ بها، كما أنها عرضة لارتكاب الأخطاء الفادحة (وأحياناً الهزلية). عندما يولّد نموذج لغوي كبير نصاً في واجهة محادثة، فإن أي أخطاء يرتكبها تبقى محصورة في تلك المحادثة. لكن عندما يتمكن نظام ما من العمل بصورة مستقلة مع إمكانية الوصول إلى تطبيقات متعددة، فقد ينفذ إجراءات لم نقصدها أو نخطط لها، مثل التلاعب بالملفات أو انتحال شخصيات المستخدمين أو إجراء معاملات غير مصرح بها. الميزة ذاتها التي يجري الترويج لها -وهي تقليل الرقابة البشرية- هي نقطة الضعف الأساسية.

ولفهم المشهد العام للمخاطر والفوائد، من المفيد تصنيف منظومات الذكاء الاصطناعي الوكيلة وفق نطاق متدرج من الاستقلالية.

حيث يتكون المستوى الأدنى من المعالجات البسيطة التي ليس لها أي تأثير في سير عمل البرنامج، مثل بوتات الدردشة التي ترحب بك على موقع إحدى الشركات على الإنترنت. أما في المستوى الأعلى، الذي يضم المنظومات الوكيلة المستقلة بالكامل، فيمكن لهذه المنظومات كتابة التعليمات البرمجية الجديدة وتنفيذها دون قيود أو إشراف بشري، وهي قادرة على اتخاذ الإجراءات (نقل الملفات، وتغيير السجلات، والتواصل في البريد الإلكتروني، وما إلى ذلك) دون أن تطلب منها أي شيء. أما المستويات المتوسطة فتشمل المنظومات الموجهة (Routers)، التي تحدد الخطوات التي يجب اتخاذها من بين الخطوات التي يقدمها المستخدم البشري؛ ومنظومات استدعاء الأدوات (Tool Callers) التي تنفذ الوظائف التي يكتبها المستخدم البشري باستخدام أدوات تقترحها المنظومة الوكيلة؛ والمنظومات الوكيلة المتعددة الخطوات التي تحدد الوظائف التي يجب تنفيذها وأوقات تنفيذها وطرق تنفيذها. ويمثل التدرج صعوداً مع كل مستوى من هذه المستويات إزالة تدريجية للتحكم البشري.

من الواضح أن منظومات الذكاء الاصطناعي الوكيلة يمكن أن تكون مفيدة جداً في أعمالنا اليومية. لكن هذا يثير مخاوف واضحة تتعلق بالخصوصية والسلامة والأمن، فالمنظومات الوكيلة التي تساعدك على معرفة كل ما يتعلق بشخص ما تتطلب المعلومات الشخصية لهذا الشخص ومراقبة واسعة النطاق لتفاعلاتك السابقة، ما قد يؤدي إلى انتهاكات خطيرة للخصوصية.

يمكن للجهات الخبيثة أن تستخدم المنظومات الوكيلة التي تنشئ الاتجاهات بالاعتماد على مخططات المباني للوصول إلى مناطق غير مصرح بها.

وعندما تتمكن الأنظمة من التحكم في مصادر معلومات متعددة في وقت واحد، تتزايد احتمالات الضرر إلى حد كبير. فعلى سبيل المثال، يمكن للمنظومة الوكيلة التي لديها إمكانية الوصول إلى كل من الاتصالات الخاصة (الرسائل والمحادثات والمكالمات) والمنصات العامة أن تنشر معلومات شخصية عبر وسائل التواصل الاجتماعي. قد لا تكون تلك المعلومات صحيحة، ولكنها قد تتوارى عن أنظار الآليات التقليدية للتحقق من الحقائق، وقد تتضخم إذا جرت مشاركتها بصورة متزايدة، ما يُلحق ضرراً بالغاً بالسمعة. نحن نعتقد أننا سنشهد قريباً انتشار عبارات شائعة لتبرير النتائج السيئة مثل: "لم أفعل ذلك، بل وكيلي الذكي!!".

اقرأ أيضاً: تعرّف إلى وكلاء الذكاء الاصطناعي الجديدة من أدوبي وكيفية الاستفادة منها

إبقاء الإنسان مسيطراً على زمام الأمور

توضح السوابق التاريخية سبب أهمية الحفاظ على الإشراف البشري. ففي عام 1980، أشارت أنظمة الكمبيوتر خطأً إلى أن أكثر من 2,000 صاروخ سوفييتي متجه نحو أميركا الشمالية. وأدى هذا الخطأ إلى إجراءات طوارئ جعلتنا على وشك الوقوع في كارثة. وما حال دون وقوع الكارثة هو التحقق البشري المتبادل بين أنظمة الإنذار المختلفة. ولو جرى تفويض عملية اتخاذ القرار بالكامل إلى أنظمة ذاتية التحكم تمنح الأولوية للسرعة على حساب اليقين، لكانت النتيجة كارثية.

سيجادل البعض بأن الفوائد تستحق المخاطر، لكننا نؤكد أن تحقيق هذه الفوائد لا يتطلب التخلي عن السيطرة البشرية بالكامل. بل يجب أن يكون تطوير منظومات الذكاء الاصطناعي الوكيلة مواكباً لتطوير إشراف بشري مضمون بطريقة تحد من نطاق القدرات التي تتمتع بها منظومات الذكاء الاصطناعي الوكيلة.

تمثل الأنظمة الوكيلة المفتوحة المصدر إحدى طرق معالجة المخاطر، حيث تتيح هذه الأنظمة مستوى أعلى من الإشراف البشري على ما هو مسموح للأنظمة أن تفعله وما هو ممنوع عليها فعله. نحن في هاغينغ فيس نعمل على تطوير إطار عمل يسمى "سمول إيجنتس" (Smolagents)، يوفر بيئات آمنة معزولة ويسمح لمطوري البرمجيات ببناء منظومات وكيلة تتميز بالشفافية في بنيتها الأساسية بحيث يمكن لأي مجموعة مستقلة التحقق من توافر مستوى ملائم من السيطرة البشرية.

يتناقض هذا النهج تناقضاً صارخاً مع التوجه السائد نحو أنظمة الذكاء الاصطناعي المعقدة والمبهمة بصورة متزايدة والتي تحجب عمليات اتخاذ القرار التي تتبعها خلف طبقات من التكنولوجيا المشمولة بموجب حقوق الملكية، ما يجعل ضمان السلامة أمراً مستحيلاً.

وبينما نمضي في تطوير منظومات الذكاء الاصطناعي الوكيلة التي تزداد تعقيداً يوماً بعد يوم، يجب أن ندرك أن أهم ميزة في أي تكنولوجيا ليست زيادة الكفاءة بل تعزيز رفاهة الإنسان.

وهذا يعني إنشاء أنظمة تظل أدوات، وليست صانعة للقرار، وتظل مساعدات لنا لا بدائل تحل محلنا. وتظل الأحكام البشرية، بكل عيوبها، هي العنصر الأساسي في ضمان أن تخدم هذه الأنظمة مصالحنا بدلاً من تخريبها.

المحتوى محمي