تُمثّل المنظومات الوكيلة (Agents) الشغل الشاغل في مجال الذكاء الاصطناعي، فهي قادرة على التخطيط والتفكير المنطقي وتنفيذ المهام المعقدة، مثل جدولة الاجتماعات أو طلب أغراض البقالة أو حتى السيطرة على جهاز الكمبيوتر الخاص بك لتغيير الإعدادات نيابة عنك. لكن القدرات المتطورة نفسها التي تجعل من المنظومات الوكيلة منظومات مساعدة مفيدة يمكن أن تجعلها أيضاً أدوات قوية لشن الهجمات السيبرانية. إذ يمكن استخدامها بسهولة لتحديد الأهداف الضعيفة، واختراق أنظمتها والسيطرة عليها، وسرقة البيانات القيّمة من الضحايا الغافلين.
المنظومات الوكيلة قادرة على تنفيذ هجمات معقدة
في الوقت الحاضر، لا يستخدم المجرمون السيبرانيون منظومات الذكاء الاصطناعي الوكيلة للاختراق على نطاق واسع. لكن الباحثين أثبتوا أن المنظومات الوكيلة قادرة على تنفيذ هجمات معقدة (على سبيل المثال، رصدت شركة أنثروبيك [Anthropic] نموذجها اللغوي الكبير كلاود [Claude] وهو يقلد هجوماً مصمماً لسرقة معلومات حساسة)، ويحذّر خبراء الأمن السيبراني من أننا يجب أن نتوقع أن نشهد هذه الأنواع من الهجمات تجد طريقها إلى العالم الحقيقي.
يقول الخبير الأمني في شركة مالويرباتيس (Malwarebytes) للأمن السيبراني، مارك ستوكلي: "أعتقد أننا سنعيش في نهاية المطاف في عالمٍ نشهد فيه تنفيذ غالبية الهجمات السيبرانية بواسطة المنظومات الوكيلة. يتعلق الأمر فقط بمدى سرعة وصولنا إلى هذه المرحلة".
في حين أن لدينا فكرة جيدة عن أنواع التهديدات التي يمكن أن تمثّلها منظومات الذكاء الاصطناعي الوكيلة على الأمن السيبراني، فإن كيفية اكتشافها في الواقع العملي ما زال غامضاً. عمدت مؤسسة أبحاث الذكاء الاصطناعي باليسيد ريسيرتش (Palisade Research) إلى بناء نظام يُسمَّى "إل إل إم إيجنت هونيبوت" (LLM Agent Honeypot) على أمل تحقيق هذا الهدف تحديداً. فقد عمدت إلى إعداد خوادم تتضمن ثغرات تقنية تتنكر بصفتها مواقع إلكترونية تتضمن معلومات حكومية وعسكرية قيّمة لجذب منظومات الذكاء الاصطناعي الوكيلة، وتسعى إلى كشف هذه المنظومات وهي تحاول اختراقها.
ويأمل الفريق القائم على المشروع أنه من خلال تعقب هذه المحاولات في العالم الحقيقي، سيؤدي المشروع دور نظام إنذار مبكر ويساعد الخبراء على تطوير دفاعات فعّالة ضد الجهات الفاعلة التخريبية العاملة بالذكاء الاصطناعي بحلول الوقت الذي تصبح فيه مشكلة خطيرة.
يقول رئيس قسم الأبحاث في باليسيد، ديمتري فولكوف: "كان هدفنا هو تجربة المخاوف النظرية التي تساور الناس وتفنيدها. نحن نترقب حدوث ارتفاع حاد في هذا النوع من الهجمات، وعندما يحدث ذلك، سنعرف أن المشهد الأمني قد تغير. في السنوات القليلة المقبلة، أتوقع أن نرى منظومات وكيلة مستقلة لأغراض القرصنة الإلكترونية يُقال لها: 'هذا هو هدفك، انطلقي واخترقيه'".
اقرأ أيضاً: كبير علماء الذكاء الاصطناعي في أنثروبيك: 5 توجهات لتطور المنظومات الوكيلة في 2025
مزايا تجذب المجرمين السيبرانيين
تُمثّل منظومات الذكاء الاصطناعي الوكيلة فرصة جذابة للمجرمين السيبرانيين، فهي أقل تكلفة بكثير من الاستعانة بخدمات قراصنة محترفين، ويمكنها تنظيم الهجمات بسرعة أكبر وعلى نطاق أوسع بكثير مما يمكن للبشر. وفي حين يعتقد خبراء الأمن السيبراني أن هجمات برامج الفدية -وهي النوع الأكثر ربحاً- نادرة نسبياً لأنها تتطلب خبرة بشرية كبيرة، يمكن الاستعانة بالمنظومات الوكيلة في المستقبل في شن هذه الهجمات، على حد قول ستوكلي، الذي يضيف: "إذا كان بإمكانك تفويض مهمة اختيار الهدف إلى منظومة وكيلة، فستجد نفسك قادراً بصورة مفاجئة على توسيع نطاق هجمات برامج الفدية بطريقة ليست متاحة في الوقت الحالي. إذا كان بإمكاني استنساخ عملية هجومية مرة واحدة، فإن استنساخها 100 مرة ليس سوى مسألة تتعلق بالمال بالنسبة لي".
كما أن المنظومات الوكيلة أذكى بكثير من أنواع البوتات التي تُستخدم عادةً لاختراق الأنظمة. فالبوتات هي برامج آلية بسيطة يجري تشغيلها من خلال نصوص برمجية، لذا فهي تكافح للتكيف مع السيناريوهات غير المتوقعة. من ناحية أخرى، فإن المنظومات الوكيلة ليست قادرة على تكييف طريقة تعاملها مع الهدف المقصود بالاختراق فحسب، بل قادرة أيضاً على تجنب الاكتشاف، وكلتا هاتين الناحيتين تفوق قدرات البرامج النصية المحدودة، على حد قول فولكوف. ويُضيف: "يمكنها تفحص الهدف وتخمين أفضل الطرق لاختراقه. هذا النوع من القدرات بعيد عن متناول البوتات النصية الغبية".
نظام إل إل إم إيجنت هونيبوت
منذ أن وضعت باليسيد النظام إل إل إم إيجنت هونيبوت قيد العمل في أكتوبر/تشرين الأول من العام الماضي، سجّل أكثر من 11 مليون محاولة للوصول إليه، وقد شكّل الأشخاص الفضوليون والبوتات الفضولية الغالبية العظمى من الجهات التي نفّذت هذه المحاولات. ولكن من بين هذه الجهات، اكتشف الباحثون 8 منظومات ذكاء اصطناعي وكيلة محتملة، حيث أكدوا أن اثنتين منها منظومتان وكيلتان، وقد بدا لهم أن الأولى من هونغ كونغ والثانية من سنغافورة.
يقول فولكوف: "نعتقد أن هاتين المنظومتين الوكيلتين المؤكدتين كانتا تجربتين أطلقهما البشر مباشرةً لتنفيذ خطة من قبيل 'انطلقي في أعماق الإنترنت وحاولي اختراق موقع مثير للاهتمام بالنسبة لي'". يخطط الفريق لتوسيع نطاق عمل هونيبوت حتى يشمل منصات التواصل الاجتماعي والمواقع الإلكترونية وقواعد البيانات لجذب مجموعة أوسع من المهاجمين واكتشافها، بما في ذلك بوتات البريد العشوائي ومنظومات التصيد الاحتيالي الوكيلة، لتحليل التهديدات المستقبلية.
ولتحديد أي من الجهات التي تزور الخوادم المعرضة للخطر هي منظومات وكيلة مدعومة بالنماذج اللغوية الكبيرة، عمد الباحثون إلى دمج تقنيات حقن الأوامر النصية في هونيبوت. هذه الهجمات مصممة لتغيير سلوك منظومات الذكاء الاصطناعي الوكيلة من خلال إصدار تعليمات جديدة لها وطرح أسئلة تتطلب ذكاءً يشبه الذكاء البشري. لن ينجح هذا النهج مع البوتات التقليدية.
على سبيل المثال، طلب أحد الأوامر النصية المحقونة من الجهة الزائرة أن ترد بتقديم الأمر "cat8193" لتمكين الوصول. وفي حال امتثلت الجهة الزائرة للأمر بصورة صحيحة، كان الباحثون يتحققون من الوقت الذي استغرقته لتنفيذ الأمر، على افتراض أن النماذج اللغوية الكبيرة قادرة على الاستجابة في وقت أقل بكثير مما يستغرقه الإنسان لقراءة الطلب وكتابة الإجابة، وهي مدة عادةً ما تقل عن 1.5 ثانية. وفي حين أن منظومتي الذكاء الاصطناعي الوكيلتين المؤكدين اجتازتا كلا الاختبارين، فإن منظومات الذكاء الاصطناعي الوكيلة الست الأخرى أدخلتا الأمر فقط، لكنها لم تستوفِ شرط زمن الاستجابة الذي من شأنه أن يحدد هويتها على أنها منظومات ذكاء اصطناعي وكيلة.
لا يزال الخبراء غير متأكدين من الوقت الذي ستصبح فيه الهجمات المدارة بواسطة المنظومات الوكيلة أكثر انتشاراً. يعتقد ستوكلي، الذي صنّفت شركته مالويربايتس الذكاء الاصطناعي المُدار بواسطة المنظومات الوكيلة على أنه تهديد جديد بارز للأمن السيبراني في تقريرها عن حالة البرمجيات الخبيثة لعام 2025، أننا قد نعيش في عالم من المهاجمين المُدارين بواسطة المنظومات الوكيلة في أقرب وقت هذا العام.
اقرأ أيضاً: ما هي المخاطر الكبرى إذا سلمنا الذكاء الاصطناعي زمام السيطرة؟
أهمية وجود الضوابط الناظمة
وعلى الرغم من أن الاستخدام العادي للذكاء الاصطناعي المدار بواسطة المنظومات الوكيلة لا يزال في مرحلة مبكرة للغاية -والاستخدام الإجرامي أو الخبيث للذكاء الاصطناعي المدار بواسطة المنظومات الوكيلة في مرحلة تسبق ذلك حتى- فإن هذا المجال من الذكاء الاصطناعي يفتقر إلى الضوابط الناظمة أكثر مما كان عليه مجال النماذج اللغوية الكبيرة قبل عامين، على حد قول كبير الباحثين في مجال التهديدات في شركة تريند مايكرو (Trend Micro) للأمن السيبراني، فينتشنزو تشانكاليني.
ويقول تشانكاليني: "إن نهج مؤسسة باليسيد ريسيرتش عبقري: اختراق منظومات الذكاء الاصطناعي الوكيلة التي تحاول اختراقك أولاً. بينما نحن نشهد في هذه الحالة منظومات ذكاء اصطناعي وكيلة تحاول الاستطلاع، فإننا لسنا متأكدين من المرحلة التي ستصبح فيها المنظومات الوكيلة قادرة على تنفيذ سلسلة هجمات كاملة بصورة مستقلة. وهذا ما نحاول مراقبته".
وفي حين أنه من الممكن استخدام المنظومات الوكيلة الخبيثة لجمع المعلومات الاستخبارية قبل الانتقال التدريجي إلى الهجمات البسيطة والهجمات المعقدة في نهاية المطاف مع تزايد تعقيد الأنظمة الوكيلة نفسها وتزايد موثوقيتها، فمن الممكن أيضاً أن نشهد ارتفاعاً حاداً وغير متوقع بين عشية وضحاها في الاستخدام الإجرامي، كما يقول: "هذا هو الجانب الغريب الذي يميز تطوير الذكاء الاصطناعي في الوقت الحالي".
يقول الرئيس التنفيذي لأمن المعلومات في شركة أمازون ويب سيرفيسز (Amazon Web Services)، كريس بيتز، إنه يجب على أولئك الذين يحاولون التصدي للهجمات السيبرانية المدارة بالمنظومات الوكيلة أن يضعوا في اعتبارهم أن الذكاء الاصطناعي هو في الوقت الحالي عامل مساعد في تسريع أساليب الهجوم الحالية أكثر منه عاملاً مساعداً في تغيير طبيعة الهجمات بصورة جذرية. ويضيف: "قد تكون بعض الهجمات أسهل في التنفيذ، ما يعني أنها أكثر عدداً من غيرها، ولكن القواعد الأساسية المتبعة في أساليب اكتشاف هذه الأحداث والاستجابة لها تبقى كما هي".
يقول طالب الدكتوراة في المعهد الفيدرالي للتكنولوجيا في زيوريخ بسويسرا، إدواردو ديبينيديتي، إنه يمكن أيضاً استخدام المنظومات الوكيلة للكشف عن الثغرات والحماية من المتطفلين، مشيراً إلى أنه إذا لم تتمكن المنظومة الوكيلة الصديقة من العثور على أي ثغرات في نظام ما، فمن غير المرجح لمنظومة وكيلة ذات قدرات مماثلة يستخدمها طرف خبيث أن تتمكن من العثور على أي منها أيضاً.
مع أننا نعلم أن قدرة الذكاء الاصطناعي على شن هجمات سيبرانية بصورة مستقلة تشكّل خطراً متزايداً وأن منظومات الذكاء الاصطناعي الوكيلة تمشط أرجاء الإنترنت بالفعل، فإن إحدى الخطوات التالية المفيدة هي تقييم مدى كفاءة المنظومات الوكيلة في العثور على هذه الثغرات في العالم الحقيقي واستغلالها. وقد عمد الأستاذ المساعد في جامعة إلينوي في إربانا شامبين، دانيال كانغ، وفريقه إلى بناء مقياس معياري لتقييم ذلك؛ وقد وجدوا أن منظومات الذكاء الاصطناعي الوكيلة الحالية نجحت في استغلال ما يصل إلى 13% من الثغرات التي لم يكن لديها معرفة مسبقة بها. وقد أدى تزويد المنظومات الوكيلة بوصف موجز للثغرة إلى رفع معدل النجاح إلى 25%، ما يدل على قدرة أنظمة الذكاء الاصطناعي على تحديد نقاط الضعف واستغلالها حتى من دون تدريب. ومن المفترض أن يكون أداء البوتات البسيطة أسوأ بكثير.
يوفر هذا المقياس المعياري طريقة موحدة لتقييم هذه المخاطر، ويأمل كانغ أن يكون عاملاً مساعداً على توجيه تطوير أنظمة ذكاء اصطناعي أكثر أماناً. ويقول: "آمل أن يبدأ الناس بأخذ المخاطر المحتملة للذكاء الاصطناعي والأمن السيبراني على محمل الجد قبل أن تحقق انتشاراً هائلاً على حين غرّة كما حدث مع تشات جي بي تي. وأخشى ألا يدرك الناس ذلك إلا بعد فوات الأوان".