سباق التسلح القادم: كيف تستعد الشركات لمواجهة الجرائم المدعومة بالذكاء الاصطناعي؟

5 دقيقة
سباق التسلح القادم: كيف تستعد الشركات لمواجهة الجرائم المدعومة بالذكاء الاصطناعي؟
حقوق الصورة: Shutterstock.com/vectorfusionart

شهد عام 2024 حادثة احتيال ضخمة استخدم فيها المحتالون تقنيات التزييف العميق لإقناع موظف بتحويل 25 مليون دولار، ما كشف عن مرحلة جديدة من الجرائم المدعومة بالذكاء الاصطناعي. يسهم الذكاء الاصطناعي في تسهيل الجرائم السيبرانية، إذ يتيح حتى للمجرمين قليلي الخبرة شن هجمات معقدة…

في مايو/أيار من عام 2024، وقع موظف في شركة الهندسة العالمية آروب Arup ضحية لعملية احتيال متقنة، حيث تم خداعه لتحويل 20 مليون جنيه إسترليني (ما يعادل 25 مليون دولار) إلى المحتالين. لم تكن هذه عملية احتيال عادية؛ فقد أقنعوا الموظف خلال مكالمة فيديو جماعية شارك فيها ما بدا أنه المدير المالي للشركة وزملاء آخرون. لكن في الواقع، كان المشاركون كلهم باستثناء الضحية عبارة عن شخصيات ناتجة عن تزييف عميق أُنشئ بواسطة الذكاء الاصطناعي، حيث تم نسج محتوى فيديو وصوت اصطناعي بواقعية مذهلة.

هذه الحادثة ليست مجرد قصة تحذيرية، بل هي إشارة واضحة إلى أننا دخلنا حقبة جديدة من المخاطر. فالذكاء الاصطناعي، الذي أحدث ثورة في نماذج أعمالنا وعزز الإنتاجية والابتكار، يجري استغلاله الآن من قبل جهات إجرامية لتوسيع نطاق عملياتها وتطوير أساليبها. لم يعد التهديد يقتصر على الجهات الفاعلة المتطورة التي تمتلك موارد ضخمة؛ فالذكاء الاصطناعي يعمل على "إضفاء الطابع الديمقراطي على الجريمة السيبرانية"، ما يمكن حتى المجرمين الأقل مهارة من شن هجمات معقدة.

يتناول هذا المقال كيف يعيد الذكاء الاصطناعي تشكيل مشهد الجريمة، ويقدم إطاراً عملياً للقادة لفهم مراحل نضج هذا التهديد؛ الأفق (Horizon)، والناشئ (Emerging)، والناضج (Mature). ومن خلال استعراض أمثلة واقعية، سنستكشف استراتيجيات التخفيف والوقاية التي يجب على الشركات والحكومات تبنيها للبقاء في الطليعة في سباق التسلح الرقمي هذا.

نمو الجريمة بإزالة العوائق البشرية

لقد اجتاح الذكاء الاصطناعي عالم الأعمال، حيث بدأت الشركات تتبنى أدوات جاهزة مثل تشات جي بي تي للمساعدة في مهام مثل صياغة الردود أو تلخيص البيانات، ثم انتقلت إلى تطوير أنظمة خاصة بها لأتمتة مسارات عمل بأكملها. لكن هذا التقدم لا يقتصر على العالم المشروع. فعلى الجانب الآخر، تسارع المؤسسات الإجرامية لتسخير إمكانات الذكاء الاصطناعي بالطريقة نفسها تماماً.

في البداية، لجأت هذه المنظمات إلى الذكاء الاصطناعي لتعزيز جهودها الإجرامية التي يقودها البشر. على سبيل المثال، استخدموا نماذج اللغة الكبيرة لترجمة نصوص التصيد الاحتيالي إلى لغات متعددة بدقة، أو لمسح قواعد بيانات التعليمات البرمجية الضخمة بحثاً عن ثغرات قابلة للاستغلال. هذه التطبيقات المبكرة تعكس الاستخدامات المشروعة للذكاء الاصطناعي، ولكنها تحولت إلى أسلحة ذات تأثير مدمر.

الحدود التالية للمجرمين هي الاستقلالية، فكما تسعى الشركات لأتمتة المهام، يمكن لمجرمي الإنترنت تطوير وكلاء ذكاء اصطناعي قادرة على العمل بشكل مستقل تماماً. يمكنها تحديد نقاط الضعف واستغلالها دون إشراف بشري، وتنفيذ أهداف معقدة مثل اختراق البنية التحتية الحيوية. على سبيل المثال، محطات معالجة المياه. هذا التطور لا يغير فقط حجم العمليات الإجرامية، بل يعيد تشكيلها جذرياً، ما يجعلها أسرع وأكثر كفاءة، ومقلقة للغاية من حيث صعوبة اكتشافها أو مواجهتها.

مشهد التهديد المتطور: نموذج نضج الجريمة المدعومة بالذكاء الاصطناعي

لفهم هذا التهديد المتسارع بشكل فعال، يجب على القادة التفكير في تبني المجرمين الذكاء الاصطناعي عبر ثلاث مراحل من النضج. يساعد هذا الإطار أصحاب المصلحة على تحديد أولويات استجاباتهم ومواردهم بشكل فعال.

مرحلة الأفق (Horizon): تطبيقات نظرية ذات تأثير كبير

تتميز هذه المرحلة بالتطبيقات التي لا تزال نظرية إلى حد كبير ولكنها تحمل إمكانات تخريبية عالية في غضون عام أو عامين.

  • تمويل الانتشار النووي: تعتمد كوريا الشمالية بشكل متزايد على الهجمات السيبرانية لتمويل برنامجها النووي. حالياً، يتم تسهيل هذه العمليات من قبل قراصنة بشريين ماهرين. ومع ذلك، فإن إمكانية استخدام وكلاء الذكاء الاصطناعي المستقلة لتحديد المنصات الضعيفة وتنفيذ الاختراقات وأتمتة مخططات غسيل الأموال المعقدة ستزيد بشكل كبير قدرتهم على تمويل الأنشطة غير المشروعة.
  • غسيل الأموال: يعتمد غسيل الأموال التقليدي على وسطاء بشريين وتنسيق يدوي. تستعد تقنيات الذكاء الاصطناعي، مثل مولدات الهويات الاصطناعية وإنشاء حسابات العملات المشفرة الآلية، لأتمتة هذه العمليات بشكل كبير، ما قد يزعزع استقرار الأنظمة المالية ويعزز الشبكات الإجرامية العالمية.
  • الجريمة السيبرانية المستقلة: يمثل ظهور وكلاء الذكاء الاصطناعي القادرة على تحديد الثغرات الأمنية وتنفيذ الهجمات بشكل مستقل بُعداً جديداً للجريمة السيبرانية. يمكن لهذه الأنظمة أن تحل محل الوسطاء البشريين في هجمات برامج الفدية، ما يتيح شن هجمات واسعة النطاق على نطاق لا يمكن تخيله سابقاً، مع عواقب اقتصادية وأمنية وخيمة.

مرحلة النشوء (Emerging): علامات مبكرة على نشاط الذكاء الاصطناعي

تتميز هذه المرحلة بالانتشار الأولي للأدوات الإجرامية المدفوعة بالذكاء الاصطناعي. وعلى الرغم من أن هذه الأنشطة لا تزال في مهدها، فإن إمكاناتها للنمو السريع تتطلب استجابة فورية من وكالات إنفاذ القانون.

  • إنتاج مواد الاعتداء الجنسي على الأطفال (CSAM): تاريخياً، اعتمد إنتاج هذه المواد على استغلال الضحايا من البشر. ومع ذلك، بدأ المحتوى الذي يُنشأ بواسطة الذكاء الاصطناعي بالظهور، ما يخلق تحديات كشف وأخلاقية وقانونية جديدة. وقد كشف تقرير مؤسسة مراقبة الإنترنت (IWF) الصادر في يوليو/تموز 2024 عن أكثر من 3,500 صورة جديدة من هذا النوع تم تحميلها على منتدى واحد فقط على الويب المظلم. هذا يؤكد الخطورة المتصاعدة لسوء استخدام الذكاء الاصطناعي في هذا المجال.
  • عمليات التضليل: يعيد الذكاء الاصطناعي تشكيل حملات الدعاية والتضليل من خلال تبسيط إنشاء المحتوى وتوزيعه. وثقت وكالات مثل الإنتربول واليوروبول عمليات نشر مبكرة لوكلاء الذكاء الاصطناعي الذين يقومون بأتمتة الرسائل المخصصة واستهداف الفئات السكانية الضعيفة. إن سرعة هذه العمليات ونطاقها يسرعان من الاستقطاب المجتمعي ويعطلان العمليات الديمقراطية.
  • الاحتيال والنصب: بدأت عمليات الاحتيال، التي تعتمد تقليدياً على التدخل البشري، في تبني أدوات الذكاء الاصطناعي لتعزيز فاعليتها. وقد ظهرت رسائل التصيد الاحتيالي التي أُنشئت بواسطة الذكاء الاصطناعي وانتحال الشخصيات باستخدام التزييف العميق في حالات موثقة. من المتوقع أن تصل خسائر الاحتيال المالي في الولايات المتحدة وحدها إلى 40 مليار دولار بحلول عام 2027، ارتفاعاً من 12.3 مليار دولار عام 2023، مدفوعة إلى حد كبير بهذه التقنيات الجديدة.

مرحلة النضج (Mature): الذكاء الاصطناعي يتفوق على النشاط البشري

تمثل هذه المرحلة النقطة التي تهيمن فيها الأنشطة المدفوعة بالذكاء الاصطناعي على مجالاتها الإجرامية المعنية، حيث يعتمد المجرمون على أنظمة الذكاء الاصطناعي أكثر من المشغلين البشريين. على الرغم من عدم وصول أي مجال إجرامي إلى هذه المرحلة بعد، فمن المحتمل أن هذا الواقع الجديد ليس ببعيد. هناك اتجاهان يؤكدان هذا المسار:

  1. وصول أنظمة الذكاء الاصطناعي إلى أدوات أساسية مثل المتصفحات وقواعد البيانات ومنصات البريد الإلكتروني ومحافظ العملات المشفرة.
  2. برمجة نماذج الذكاء الاصطناعي لتحسين أهداف محددة، مثل زيادة الأرباح أو التأثير.

الاستجابة الاستراتيجية: إطار عمل للتخفيف من المخاطر

إذاً، إلى أين نذهب من هنا؟ كيف نوازن بين تبني الفرص والابتكارات التي يقدمها الذكاء الاصطناعي وضمان سلامة مواطنينا وأنظمتنا العالمية؟ 

تتطلب معالجة إساءة استخدام الذكاء الاصطناعي نهجاً متعدد الأوجه يجمع بين الحلول التقنية والسياسات والتعليم والتعاون.

  1. استخدام الذكاء الاصطناعي ضد الذكاء الاصطناعي (الحلول التقنية) : تعد أنظمة الكشف المدفوعة بالذكاء الاصطناعي خط دفاع حاسماً. على سبيل المثال، أثبتت الأدوات التي تحدد التزييف العميق أو تكتشف الحالات الشاذة في المعاملات المالية فعاليتها بالفعل، كما أن أطر الأمن السيبراني المحسنة التي تدمج الكشف عن التهديدات القائمة على الذكاء الاصطناعي يمكن أن تخفف من المخاطر المرتبطة بالهجمات واسعة النطاق.
  2. إقامة تحالفات بين القطاعين العام والخاص (التعاون): تعد الشراكات بين القطاعين العام والخاص أمراً لا غنى عنه في مكافحة الجرائم التي تصبح ممكنة بسبب الذكاء الاصطناعي.  يجب على المؤسسات المالية والشركات الأخرى إعطاء الأولوية لدمج ميزات الأمان في أنظمتها، بينما يجب على الحكومات تحفيز البحث والابتكار التعاوني. 

تؤدي مبادرات مثل التعاون المشترك للدفاع السيبراني (JCDC) في الولايات المتحدة دوراً محورياً في تسهيل تبادل المعلومات وتنسيق الدفاعات.

  1. التنقل في متاهة التنظيم (السياسات والتنظيم): يعمل صانعو السياسات على مستوى العالم على إنشاء بيئات تنظيمية تشجع الابتكار في الذكاء الاصطناعي مع التخفيف من المخاطر. التعاون العالمي ضروري أيضاً لمعالجة الطبيعة العابرة للحدود لهذه الجرائم. يجب أن تضمن المبادئ التوجيهية الأخلاقية التطوير المسؤول للذكاء الاصطناعي، مع فرض عقوبات واضحة على سوء الاستخدام.
  2. بناء المرونة البشرية (التعليم والوعي) : يعد تثقيف الجمهور حول مخاطر عمليات الاحتيال والتضليل التي يقودها الذكاء الاصطناعي أمراً بالغ الأهمية. لقد أطلقت وكالات مثل مكتب التحقيقات الفيدرالي (FBI) واليوروبول حملات لتثقيف الجمهور حول مخاطر التهديدات عبر الإنترنت والمعلومات المضللة. وبالمثل، يعد تطوير القوى العاملة الماهرة في مجال الذكاء الاصطناعي والأمن السيبراني أمراً ضرورياً لبناء دفاعات قوية.

الخلاصة: دعوة للقيادة الاستباقية

إن الطبيعة المزدوجة الاستخدام للذكاء الاصطناعي تقدم فرصاً هائلة وتحديات خطيرة في آن واحد. على الرغم من أن التكنولوجيا لم تصل بعد إلى مرحلة تهيمن فيها الأنشطة غير المشروعة المدفوعة بالذكاء الاصطناعي على ساحة المعركة الإجرامية، فإن مسار تطورها يسلط الضوء على الحاجة إلى اتخاذ إجراءات وقائية عاجلة.

يجب على قادة الأعمال وصناع السياسات ألا يكونوا متفرجين سلبيين. يجب عليهم الاستثمار بشكل استباقي في التكنولوجيا الدفاعية، وتعزيز التعاون بين القطاعات، وبناء ثقافة أمنية لمواجهة هذه الحقبة الجديدة. 

إن دمج قدرات الذكاء الاصطناعي في الأدوات التي تعتمد عليها فرق الأمن بالفعل يضمن دفاعاً استباقياً وقابلاً للتكيف ضد المشهد سريع التطور للتهديدات المدفوعة بالذكاء الاصطناعي.

المحتوى محمي