كيف نحمي أنظمة الذكاء الاصطناعي من الهجمات السيبرانية؟

4 دقائق
كيف نحمي أنظمة الذكاء الاصطناعي من الهجمات السيبرانية؟
حقوق الصورة: شترستوك. تعديل الصورة: إم آي تي تكنولوجي ريفيو العربية.

في الماضي، كانت مراقبة الهجمات السيبرانية عملية يدوية يقوم بها عدد كبير من الخبراء، وكانت النتائج أقل فعالية. أدى إدخال الذكاء الاصطناعي إلى هذا المجال لتغيير العملية برمتها، حيث ساعد في تحسين القدرة على اكتشاف التهديدات وتحليل الكميات الهائلة من بيانات الهجمات والثغرات والأخطاء. لم يساعد هذا الأمر في زيادة سرعة ودقة الاستجابة للتهديدات السيبرانية فحسب، بل ساهم في توفير الوقت والموارد أيضاً.

لكن الذكاء الاصطناعي هو في الحقيقة سيف ذو حدين، إذ يمكن استخدامه من قبل مجرمي الإنترنت كوسيلة للهجوم والمساعدة على الاختراق وتنفيذ هجمات أسرع وأكثر تنسيقاً وفعالية على آلاف الأهداف في وقت واحد.

بالإضافة إلى ذلك، يعتبر الذكاء الاصطناعي مجرد تكنولوجيا، ما يعني أنها معرضة للاختراق. ونظراً لأن العالم أصبح أكثر اعتماداً على الذكاء الاصطناعي في كل شيء، من التجارة إلى النقل إلى الرعاية الصحية، فإن حدوث خروقات أمنية لأنظمة الذكاء الاصطناعي أصبح أكثر احتمالاً.

اقرأ أيضاً: 10 اتجاهات متوقعة للذكاء الاصطناعي في 2022

مخاطر الهجمات السيبرانية على أنظمة الذكاء الاصطناعي

تُستخدم أنظمة الذكاء الاصطناعي اليوم في عدد لا متناهٍ من المجالات، سواء في الأجهزة الطبية أو أنظمة القيادة الذاتية أو الطيار الآلي في الطائرات بدون طيار أو روبوتات المصانع التي تتم برمجتها ومنحها معلومات سرية ومهمة.

في ضوء هذه الاستخدامات المتنوعة والحساسة، يصبح من الواضح مدى أهمية حماية أنظمة الذكاء الاصطناعي من الاختراق أو التلاعب.

هناك العديد من العوامل التي يمكن أن تجعل أنظمة الذكاء الاصطناعي معرضة للاختراق، من أهم هذه العوامل:

الاعتماد المتزايد على الذكاء الاصطناعي الطرفي

تزداد مخاطر تعرض الذكاء الاصطناعي للاختراق أو التلاعب مع الاتجاه المتزايد لاستخدام "الذكاء الاصطناعي الطرفي" (Edge AI)، الذي يقوم على مبدأ معالجة البيانات في نفس الأجهزة التي تجمع هذه البيانات، بدلاً من نقلها إلى السحابة المركزية لمعالجتها.

الاعتماد على الذكاء الاصطناعي الطرفي يجعل تنفيذ الهجمات السيبرانية أكثر سهولة، وذلك لأن الأجهزة الكثيرة تكون أقل حماية من السحابة. وهي تقدم خيارات أكبر لتنفيذ الهجمات، نظراً لأنها موزعة على عدد أكبر من الأجهزة، ولأن هذه الأجهزة تملك قدرات حوسبة أقل من السحابة.

لنأخذ مثالاً على ذلك جهاز تنظيم ضربات القلب الذي تتم زراعته في أجسام المرضى لمدة طويلة. يجمع هذا الجهاز باستمرار بيانات جديدة ويقوم بتحليلها وتصفيتها، وكل ذلك يتم في الجهاز نفسه دون الحاجة إلى الاتصال بالسحابة. بهذه الطريقة، لا يتم نقل الكثير من البيانات خارج الجهاز، ما يقلل من استهلاكه للطاقة ويجعل الجهاز قادراً على العمل لفترة طويلة دون الحاجة إلى استبداله، كما أن ذلك يحافظ على خصوصية المرضى. لكن على الرغم من ذلك، يجعل وجود بيانات المرضى على الأجهزة نفسها من  هذه الأجهزة أهدافاً أسهل من السحابة. تخيل مدى خطورة تعرض هذه الأجهزة للاختراق، فهذا يشكل خطراً على حياة عشرات ملايين المرضى في العالم.

لنأخذ مثالاً آخر على مخاطر الهجمات التي قد تستهدف الذكاء الاصطناعي الطرفي: يتم الاعتماد على روبوتات تستخدم الذكاء الاصطناعي الطرفي لتنفيذ مهام وعمليات معقدة لا يستطيع البشر تنفيذها بسرعة في كثير من المصانع من حول العالم. في عام 2019 على سبيل المثال، تم استخدام أكثر من 220 ألف روبوت صناعي في المصانع الألمانية. كل هذه الروبوتات تتم برمجتها وتزويدها بمعلومات سرية تخص المنتج الذي يتم تصنيعه، ما يجعلها هدفاً ثميناً للمخترقين الذين يريدون سرقة براءات الاختراع أو حقوق الملكية أو تعطيل الإنتاج.

اقرأ أيضاً: الحب في العصر الرقمي: هل تسمح للذكاء الاصطناعي بأن يختار شريك حياتك؟

الذكاء الاصطناعي أصبح أكثر استقلالية

بالإضافة إلى الذكاء الاصطناعي الطرفي، هناك اتجاه تكنولوجي آخر يجعل أنظمة الذكاء الاصطناعي أكثر عرضة للاختراق، ويتمثل في أن هذه الأنظمة تصبح أكثر استقلالية وقدرة على اتخاذ المزيد من القرارات بشكلٍ ذاتي  يوماً بعد يوم.

تعتبر الأنظمة ذاتية التحكم أو شبه ذاتية التحكم مثل أنظمة القيادة الذكية في السيارات أو الطائرات أهدافاً مهمة لمجرمي الإنترنت، فكونها تعتمد على نفسها، قد يكون من الصعب عليها تمييز السلوك الغريب أو غير الاعتيادي الذي يحدث عند حدوث اختراق أو تلاعب.

اقرأ أيضاً: بعد السيارات والطائرات: الآن جاء دور القوارب لتصبح ذاتية القيادة

الحاجة إلى كميات كبيرة من البيانات

تعد الحاجة إلى كميات هائلة من البيانات واحدة من أكبر نقاط ضعف الذكاء الاصطناعي، لأنها تشكل طريقة لاختراقه دون الحاجة إلى مهاجمته.

مؤخراً، سلط مركز الأمن والتكنولوجيا الناشئة في جامعة جورج تاون الأميركية (CSET) في عدة أوراق بحثية الضوء على العدد المتزايد من الطرق التي يمكن من خلالها اختراق الذكاء الاصطناعي، عن طريق استهداف مصادر بياناته أو التلاعب فيها.

على عكس الهجمات السيبرانية التقليدية، لا يكون الهدف من ذلك عادةً تخريب نظام الذكاء الاصطناعي أو إيقافه عن العمل، بل السيطرة عليه للاستفادة منه أو مجرد التسبب في متاعب لمن يستخدمه.

على سبيل المثال، يمكن توجيه السيارات ذاتية القيادة في مسار خاطئ أو زيادة سرعتها بشكلٍ خطير، أو جعل روبوتات التصنيع في أحد المصانع تصنع منتجات معيبة للإضرار بسمعة المصنع.

اقرأ أيضاً: هل يشكل الذكاء الاصطناعي تهديداً لوظائف البشر؟

كيف يمكن حماية أنظمة الذكاء الاصطناعي من الاختراق؟

لا توجد تكنولوجيا آمنة 100٪ مهما كانت متطورة وحديثة. لذلك، تحتاج الشركات والمؤسسات التي تطور أو تستخدم تكنولوجيا الذكاء الاصطناعي إلى اتخاذ إجراءات حماية فعالة لمنع حدوث أي اختراق.

الخطوات الرئيسية التي يجب اتخاذها هي:

  • تطبيق بروتوكولات أمان صارمة لجمع البيانات وحفظها وتخزينها وتحليلها، كي لا يتمكن أي أحد من الوصول إليها بشكلٍ غير مصرح به والتلاعب بها أو تغييرها.
  • التأكد من أن جميع العمليات التي يقوم بها الذكاء الاصطناعي يتم تدقيقها وتخضع لمراقبة وتحليل أمني، وذلك بغرض الكشف عن أي تغيير غير طبيعي في عمل نموذج الذكاء الاصطناعي.
  • تطبيق سياسة وصول ومصادقة آمنة لمنع أي شخص غير مصرح له من الوصول إلى النظام الذي يستخدم الذكاء الاصطناعي.

اقرأ أيضاً: دليل شامل ومبسط حول مفهوم الذكاء الاصطناعي

بالإضافة إلى ذلك، يجب على الشركات أن تسعى لتثقيف العاملين لديها وتوعيتهم بالمخاطر التي يمكن أن يتعرض لها الذكاء الاصطناعي، وكيفية الكشف عن أي تهديد قد يحصل والتصرف بشكلٍ صحيح في حال حدوث أي اختراق.

المحتوى محمي