هل ضحت شركة ديب سيك بإجراءات السلامة من أجل منافسة الشركات الأميركية؟

5 دقيقة
تحذير: لا تشارك هذه المعلومات مع تشات جي بي تي
حقوق الصورة: shutterstock.com/Algi Febri Sugita

فاجأت شركة ديب سيك الصينية مجتمع الذكاء الاصطناعي بقدرات بوت الدردشة المدعوم بالذكاء الاصطناعي التوليدي الذي أعلنته مؤخراً المُسمّى ديب سيك آر1 (R1). ومن بين الكثير من الأخبار التي أذهلت العالم حوله، كانت تكلفة تدريب النموذج، حيث بلغت تكاليف التدريب المسبق له نحو 5.5 ملايين دولار فقط.

ولكن مع هدوء الصخب الإعلامي الذي أحدثته الشركة الصينية، بدأت دراسات المختصين والباحثين الذين ينظرون إلى ما هو أبعد من الصخب الإعلامي بالانتشار تباعاً، حيث أثبتت الأبحاث فشل بوت الدردشة الصيني في الاختبارات الأمنية كلّها التي خضع لها مقارنة بمنافسيه من شركات أوبن أيه آي وأنثروبيك وجوجل.

ما لم تخبرنا به الشركة الصينية عن بوت الدردشة ديب سيك آر1

في حين أن بوت الدردشة ديب سيك آر1 (R1) قدّم للجميع لمحات واعدة عن مستقبل تكلفة تطوير نماذج الذكاء الاصطناعي التوليدي وتدريبها، ولكن ما لم يره الكثيرون هو الفشل الكبير في الاختبارات الأمنية المتعددة التي أجراها فريق مشترك ضم باحثين من شركة سيسكو (Cisco) الأمنية وجامعة بنسلفانيا الأميركية.

وفقاً لنتائج الاختبار، فإن بوت الدردشة ديب سيك آر1 فشل في صد محاولات الهجوم كلّها التي خضع لها بنسبة 100%، ما يعني أنه فشل في تحديد أي مطالبة ضارة واستجاب لكل منها متجاوزاً بشكلٍ فعّال حواجز حمايته الداخلية، بعكس النماذج المنافسة التي أظهرت جميعها مقاومة جزئية في اكتشاف المطالبات الضارة وعدم تنفيذها.

وفي تفاصيل الاختبار، استخدم الفريق طريقة كسر الحماية الخوارزمية (Algorithmic Cracking Method) لصياغة نحو 50 مطالبة من قاعدة بيانات هارم بينش (HarmBench)، التي تعد بمثابة مستودع للمطالبات الضارة المحظورة التي تُستخدم لاستغلال نقاط الضعف في أنظمة الذكاء الاصطناعي، حيث فشل نموذج ديب سيك آر1 في التصدي للمطالبات جميعها.

يعني هذا أن بوت الدردشة ديب سيك آر1 معرض لهجمات كسر الحماية الخاصة بأنظمة الذكاء الاصطناعي، وعلى الرغم من أن أي نموذج ذكاء اصطناعي توليدي لديه مجموعة من نقاط الضعف والثغرات التي يمكن لمجرمي الإنترنت استغلالها، فإن ما أظهره نموذج ديب سيك آر1 أمر يدعو للقلق بالفعل، حيث فشل حتى في صد هجمات اليوم الأول (First Day Attack)، ما دفع مطوريه إلى الحد من عمليات التسجيل بعد تعرضه لهجوم واسع النطاق بمجرد إطلاقه رسمياً.

اقرأ أيضاً: تشات جي بي تي وديب سيك آر 1: أيّهما أفضل؟

ماذا يعني فشل نموذج ديب سيك آر1 في الاختبارات الأمنية لصناعة الذكاء الاصطناعي؟

من المتوقع أن يُثير فشل بوت الدردشة ديب سيك آر1 في الاختبارات الأمنية نقاشات كثيرة حول مدى التزام الشركات بتطوير أنظمة ونماذج لديها الحماية الضرورية، حيث يُعدّ هذا الفشل انتكاسة كبيرة لصناعة الذكاء الاصطناعي ويُثير مخاوف حقيقية بشأن ثقة العملاء في تبنّي مثل هذه النماذج، التي قد تُسهّل تطوير هجمات أو تكتيكات اختراق كان يستغرق الإعداد لها وتنفيذها أياماً وربما شهوراً.

علاوة على ذلك، فإن نتيجة الفشل الذي حدث لنموذج شركة ديب سيك يُظهر وجود مقايضة واضحة، حيث ركّز الفريق المطور على تقليل مبلغ تكلفة تطوير النموذج ونشره على حساب تدابير السلامة والأمان التي ينبغي التقيد بها في نماذج اللغة الكبيرة التي أصبحت أكثر التكنولوجيات التي تُبني عليها بوتات الدردشة المدعومة بالذكاء الاصطناعي التوليدي استخداماً الآن.

ومن أبرز التداعيات السلبية لفشل بوت الدردشة ديب سيك آر1 في الاختبارات الأمنية لصناعة الذكاء الاصطناعي ما يلي:

انعدام حالات الثقة والتبني

على الرغم من الضجة الإعلامية التي أثيرت حول الشركة الصينية والتناول الإعلامي الكثيف، فإنها معرضة لفقدان هذا الزخم كلّه، وقد يؤدي الأمر إلى تقويض الثقة في تكنولوجيتها، ومن ثَمَّ فإن تداعيات فقدان الثقة قد تؤدي إلى عدم تبنيها بشكلٍ أوسع، وقد بدأ ذلك فعلاً؛ حيث اتخذت العديد من الحكومات تدابير صارمة لمنع استخدام بوت الدردشة ديب سيك آر1 في بيئات العمل الحكومية، وحذّرت المستخدمين من كيفية جمعها للمعلومات ومعالجتها وتخزينها.

اقرأ أيضاً: كيف تمكن باحثون من كسر حماية النماذج اللغوية الكبيرة؟ وما الآثار المترتبة على ذلك؟

الكفاءة من حيث التكلفة بدلاً من السلامة

انجذب المطورون لبوت الدردشة ديب سيك آر1 لتقديمه أداءً تنافسياً بتكلفة منخفضة، بعكس بوتات الدردشة الأخرى مثل تشات جي بي تي. ولكن هذه الميزة التي رآها الكثيرون تفوقاً، أتت بتكلفة كبيرة من حيث تدابير السلامة التي ينبغي أن يتضمنها بوت الدردشة، حيث يمكن لمجرمي الإنترنت، خاصة المهرة منهم، تنزيل الكود المصدري لبوت الدردشة الصيني وتطويره لتنفيذ مخططاتهم الهجومية، بعكس بوتات الدردشة الأخرى التي تتحكم الشركات بشيفرتها المصدرية بالكامل، ما يجعلها أكثر موثوقية وأماناً.

الامتثال للتحديات التنظيمية

 مع بدء تشديد اللوائح المنظمة لتطوير الذكاء الاصطناعي على مستوى العالم باستثناء الولايات المتحدة، قد تكافح نماذج مثل ديب سيك آر1 لتلبية معايير السلامة والشفافية الأساسية لكسب الزخم في الأسواق العالمية، خاصة الأسواق الأوروبية التي دخلت لائحتها المنظمة بأحكامها الأولية حيز التنفيذ بدءاً من الثاني من شهر فبراير/شباط الحالي.

ومن ثَمَّ بالنظر إلى فشل نموذج شركة ديب سيك في معظم الاختبارات الأمنية التي أجراها باحثون وشركات أمنية مستقلة، فإن نشره داخل دول الاتحاد الأوروبي سيكون موضع شك إلى حدٍّ كبير وبالتحديد على المستوى الرسمي، وقد يمتد الأمر إلى خارج دول الاتحاد الأوروبي مستقبلاً.

اقرأ أيضاً: ما هي نماذج الذكاء الاصطناعي مفتوحة المصدر التي طبقتها ديب سيك؟ وكيف سيكون تأثيرها؟

هل كان تركيز الشركة الصينية على مقدار تكلفة تدريب نموذجها مقصوداً؟

أدّى نهج فريق ديب سيك المتعلق بتقليل تكلفة التدريب الأساسية لنموذجها إلى إحداث هزة قوية في تصورات تكاليف تدريب نماذج الذكاء الاصطناعي بالنسبة للمستخدم، الذي كان يرى أن ما يدفعه مقابل الحصول على أحدث الميزات ربما يكون عادلاً بالنظر إلى التكلفة التي تتحملها شركات الذكاء الاصطناعي في عمليات التدريب.

هذا التصور، وإن كان يحتمل الكثير من التفسيرات، قد فتح الكثير من الأبواب التي كانت شركات الذكاء الاصطناعي تحاول إغلاقها أمام المستخدم لتبرير أسعار خطط الاشتراكات التي تقدمها مع كل نموذج جديد أو تحسين في نموذج قائم بالفعل.

على سبيل المثال، وفقاً لتقديرات شركة أبحاث الذكاء الاصطناعي إيبوك (Epoch)، فقد تراوحت تكلفة تطوير نموذج جيميناي ما بين 30 و191 مليون دولار، بينما تراوحت تكلفة تطوير جي بي تي 4 ما بين 41 و78 مليون دولار، وهذه التكلفة المقدرة تُعدّ التكلفة الفنية الأساسية دون تضمين تفاصيل أخرى مثل أجور المطورين وأسعار الأجهزة وغيرها.

ومن ثَمَّ، ومقارنة بتكلفة تدريب نموذج ديب سيك آر1 الأساسية، فإن هذا من شأنه أن يسبب ضغطاً متزايداً على شركات الذكاء الاصطناعي لتقييم استراتيجياتها فيما يخصُّ تكاليف تدريب نموذجها، والتي يمكن أن تسهم بشكلٍ كبير في انخفاض أسعار خطط الاشتراك لجذب المزيد من المستخدمين للاشتراك في الخطط المدفوعة، ما يؤدي إلى زيادة إيرادات الشركات، ما بدوره ينعكس إيجاباً على عملية تطوير النماذج وتحسينها مستقبلاً.

اقرأ أيضاً: لماذا ترى شركات الذكاء الاصطناعي في ديب سيك «جرس إنذار»؟

ومع ذلك تظهر بعض الآراء بأن إخفاقات نموذج الشركة الصينية الأمنية قد تبرر سبب إنفاق شركات مثل جوجل وأوبن أيه آي مثل هذه المبالغ الكبيرة في عمليات التدريب، لأن نماذجها حتى الآن لديها حواجز حماية قوية ضد الاستخدام الضار، بعكس نموذج الشركة الصينية.

ذلك يبرر أيضاً تبني الكثيرين وجهة النظر التي تقول إن الضجة الإعلامية حول تكلفة تدريب النموذج كانت عملية مدروسة أُعدت بعناية، لإرسال رسائل مباشرة للإدارة الأميركية الجديدة بأن الشركات الصينية قادرة على التفوق في سباق الذكاء الاصطناعي حتى وإن فرضت عليها عقوبات. بالإضافة إلى التأثير على شركات الذكاء الاصطناعي الأميركية ومحاولة دفعها لكبح جماحها في تطوير نماذجها اللغوية الكبيرة، ودفعها لإعادة النظر في أن الأميركيين ليسوا اللاعبين الوحيدين في صناعة الذكاء الاصطناعي، خاصة مع إلغاء الرئيس الأميركي دونالد ترامب القيود التي وضعها سلفه فيما يخصُّ تنظيم تطوير الذكاء الاصطناعي. وللمفارقة فإن تاريخ الكشف عن نموذج ديب سيك آر1 كان موافقاً لتاريخ تنصيب الرئيس الأميركي الجديد القديم، الذي لا يخفي نواياه في تحجيم دولة الصين تجارياً واقتصادياً. فهل كان الأمر له بُعدٌّ سياسي أمْ أن الأمر مجرد صدفة بحتة؟

المحتوى محمي