عندما كاد العالم أن ينفجر بسبب خطأ آلي
في عام 1980، تلقت الولايات المتحدة إنذاراً عاجلاً: أكثر من 2000 صاروخ نووي سوفيتي في طريقها نحو أميركا. بدأ القادة العسكريون بتجهيز الرد، وأُصدِرت الأوامر بالاستعداد للضربة المضادة. لكن بعد دقائق قليلة، وبفضل التدخل البشري لمقاطعة المعلومات بين عدة أنظمة إنذار، اتضح أن الإنذار كان ناتجاً عن خلل في الكمبيوتر، وليس هجوماً حقيقياً. تخيل للحظة لو كان القرار بيد نظام ذكاء اصطناعي مستقل بالكامل، بلا إشراف بشري!
هذه الحادثة تُلخّص جوهر المخاطر التي يُناقشها بحث جديد أعده باحثون من شركة هاغينغ فيس (Hugging Face) نُشِر في فبراير/شباط عام 2025 على منصة آركايف ولم يخضع لمراجعة الأقران بعد، يحذّر فيه الباحثون من مغبة تطوير وكلاء ذكاء اصطناعي تتمتّع بالاستقلالية الكاملة، حيث تصبح القرارات الحاسمة خارجة عن السيطرة البشرية، ما قد يؤدي إلى عواقب وخيمة. حتى إنهم عنونوا بحثهم: "يجب عدم تطوير وكلاء الذكاء الاصطناعي المستقلة تماماً".
اقرأ أيضاً: لا تصدق نصف ما ترى ولا ربع ما تسمع وتحقق من كل ما تقرأ
ما هو وكيل الذكاء الاصطناعي المستقل؟
وكيل الذكاء الاصطناعي المستقل هو نظام قادر على تحديد الأهداف واتخاذ القرارات وتنفيذ المهام دون تدخل بشري مباشر. حالياً، تتراوح مستويات الاستقلالية بين وكلاء أو برامج تساعد البشر على اتخاذ القرارات وصولاً إلى أنظمة تمتلك القدرة على تنفيذ المهام بشكلٍ كامل دون الرجوع إلى الإنسان.
أجرى الباحثون تحليلاً للمقالات العلمية حول الموضوع وحددوا مستويات مختلفة من استقلالية وكلاء الذكاء الاصطناعي:
- منفذ الوظائف الأساسية: في هذا المستوى، يكون للذكاء الاصطناعي تأثيرٌ محدود في تنفيذ البرامج، حيث يجري مهامَّ بسيطة تحت إشراف بشري مباشر.
- محدِّد المسار المشروط: يمنح هذا المستوى الذكاء الاصطناعي قدرة أكبر على التحكم في سير البرنامج، ما يُتيح له الاختيار بين مسارات محددة مسبقاً بناءً على معايير معينة. في هذا المستوى، يتحكم الإنسان بكيفية أداء المهام، بينما يتولى الوكيل تحديد التوقيت.
- منسِّق الوظائف: يتولى الذكاء الاصطناعي في هذا المستوى تنفيذ الوظائف، حيث يختار الأدوات المناسبة ويحدد المعايير المطلوبة وفقاً للحاجة. ويكون دور الإنسان مقتصراً على تحديد طبيعة المهمة المطلوبة.
- مدير التسلسل: يشرف هذا النوع من الوكلاء على تكرار البرامج وتطورها، ما يُتيح له التعامل مع سلاسل معقدة من الإجراءات دون تدخل بشري مستمر.
- مولِّد الأكواد المستقل: في هذا المستوى الأكثر تقدماً، يصبح الذكاء الاصطناعي قادراً على إنشاء أكواد جديدة وتنفيذها بشكلٍ مستقل، ما يعكس أعلى درجات الاستقلالية.
وكلاء ذكاء اصطناعي مستخدمة حالياً
في تصريح لبيل غيتس عام 2023، قال إن "السباق حالياً بين شركات التكنولوجيا سيتمحور حول تطوير وكلاء أذكياء، حينها، لن تستخدم جوجل للبحث عما تريد، ولن تبحث على أمازون عما تريد شراءه"، أي أن وكيلاً سيتولى هذه المهام نيابة عنك.
إليك أبرز وكلاء الذكاء الاصطناعي التي طُوِّرت مؤخراً:
- أوبراتور (Operator) من أوبن إيه آي: وكيل ذكاء اصطناعي تقول الشركة إنه قادر على "أداء عمل نيابة عنك بشكلٍ مستقل، تعطيه مهمة وهو سينفّذها لك". وهو مصمم لأداء مهام عبر تصفح الإنترنت مثل ملء النماذج وحجز المواعيد والتفاعل مع مواقع الويب.
- كومبيوت يوز (Compute Use) من أنثروبيك: وكيل ذكاء اصطناعي يستطيع أداء مهام على سطح مكتبك من خلال التحكم بالماوس ولوحة المفاتيح.
- جيميناي (Gemeni) من جوجل: في حين أنه واجهة نموذج لغوي، لكنه يستطيع أداء مهام مبنية على أوامر، مثل ضبط ساعة المنبه، والتحكم بهاتفك، ومهام أخرى.
- ديفين (Devin) من كونيشن لابز: تقول الشركة المطورة إنه أول مهندس برمجيات قائم على الذكاء الاصطناعي، يستطيع تخطيط المهام الهندسية وتنفيذها بشكلٍ مستقل.
اقرأ أيضاً: هل ستحل الروبوتات الطبية المدعومة بالذكاء الاصطناعي محل الأطباء في المستقبل؟
المخاطر المحتملة: بين الأمن والخصوصية
يستعرض البحث أهم المخاطر المتوقعة التي قد تنجم عن تسليم الذكاء الاصطناعي مفاتيح السيطرة الكاملة:
- فقدان السيطرة البشرية: مع ازدياد استقلالية الذكاء الاصطناعي، تزداد المخاطر المرتبطة بفقدان السيطرة عليه. فمثلاً، إذا مُنِح وكيل ذكاء اصطناعي القدرة على كتابة أكواد برمجية وتنفيذها دون رقابة، فقد يُنشئ برمجيات خبيثة أو يتخذ قرارات غير متوقعة تهدد الأمن السيبراني.
- الخصوصية والاختراقات الأمنية: يعتمد الذكاء الاصطناعي على جمع كميات هائلة من البيانات وتحليلها. إذا تمت إدارته ذاتياً دون إشراف بشري، فقد يشارك معلومات حساسة، ما يزيد خطر الاختراقات الأمنية أو استغلال البيانات في أنشطة غير قانونية.
- التحيز والقرارات غير العادلة: تعتمد أنظمة الذكاء الاصطناعي على البيانات المتاحة لها، وإذا كانت هذه البيانات متحيزة، فإن قراراتها ستكون كذلك. على سبيل المثال، هناك دراسات أثبتت أن بعض أنظمة الذكاء الاصطناعي قد تتخذ قرارات تمييزية ضد مجموعات معينة، ما يعزّز عدم المساواة الاجتماعية.
- السلامة العامة: قد تؤدي القرارات المستقلة لوكلاء الذكاء الاصطناعي إلى مخاطر جسيمة، خصوصاً في مجالات مثل الرعاية الصحية أو وسائل النقل. على سبيل المثال، في حال ارتكاب خطأ في تحليل حالة طبية أو في قيادة مركبة ذاتية القيادة، فقد تكون العواقب مميتة.
رغم المخاطر الواضحة، لا ينكر الباحثون أن التطورات في مجال الذكاء الاصطناعي المستقل قد تؤدي إلى فوائد كبيرة، مثل تحسين الكفاءة والإنتاجية، وتقليل الحاجة إلى التدخل البشري في المهام الخطرة. ومع ذلك، فإن الورقة البحثية تؤكد أن هذه الفوائد يجب أن تكون مقيدة بضوابط صارمة تحافظ على التحكم البشري.
الحلول المقترحة: كيف نتجنب الكارثة؟
بالإضافة إلى الدعوة للتوقف عن تطوير الوكلاء المستقلة تماماً، يقترح الباحثون عدة حلول للمضي قُدماً:
- تحديد مستويات واضحة للاستقلالية: يجب أن تكون هناك معايير واضحة تُحدد متى يمكن السماح للذكاء الاصطناعي بالتصرف باستقلالية ومتى يجب أن يكون القرار النهائي بيد الإنسان.
- أنظمة إشراف وتحكم قوية: يجب تطوير آليات تحقق تُتيح للإنسان مراقبة قرارات الذكاء الاصطناعي وتوجيهه، مع إمكانية التدخل في أي لحظة لمنع التصرفات غير المتوقعة.
- تعزيز الشفافية والمساءلة: على الشركات التقنية أن تكون أكثر شفافية بشأن كيفية عمل وكلاء الذكاء الاصطناعي وما هي البيانات التي يستخدمونها، كما يجب أن تكون هناك قوانين واضحة تضمن مساءلة مطوري هذه الأنظمة عند حدوث أخطاء كارثية.
اقرأ أيضاً: من الأبسط إلى الأكثر تعقيداً: دليل شامل لوكلاء الذكاء الاصطناعي
هل يمكن للبشر إيقاف التطوير التكنولوجي؟
عبر التاريخ، نادراً ما أوقف البشر تطوير تقنية ما لم تكن هناك عواقب كارثية حتمية. فعلى سبيل المثال، رغم إدراك مخاطر التكنولوجيا النووية، فلم يتخلوا عنها، بل خضعت لتنظيم صارم عبر معاهدات مثل معاهدة الحد من انتشار الأسلحة النووية. فهل يمكن تطبيق نموذج مشابه على الذكاء الاصطناعي المستقل؟
تكمن المعضلة في أن الذكاء الاصطناعي، على عكس الأسلحة النووية، لا يتطلب موارد نادرة أو بنى تحتية ضخمة، ما يجعل تقييده أكثر صعوبة. ومع ذلك، فإن وضع بروتوكولات تحكم، مثل فرض حدود قانونية على مستوى الاستقلالية، وتطوير "مفاتيح إيقاف" (Kill Switch) يمكن أن تمثّل خيارات ممكنة لتحقيق التوازن بين التقدم التكنولوجي والحفاظ على السيطرة البشرية.
القرار النهائي ليس مجرد مسألة تقنية، بل هو قرار أخلاقي وسياسي، يتطلب إجماعاً عالمياً حول مدى استعدادنا لمنح الآلات القدرة على اتخاذ قرارات مصيرية. فهل سيكون العالم قادراً على كبح جماح الطموحات التقنية قبل أن نفقد السيطرة على أدوات نحن صنعناها؟