اندلع جدل حاد مؤخراً في أوساط الذكاء الاصطناعي حول رسالة مفتوحة وجهها إيلون ماسك وعدة شخصيات مهمة أخرى في مجال التكنولوجيا، حيث قالوا في هذه الرسالة إن الذكاء الاصطناعي يمثّل "خطراً وجودياً" على البشرية. ودعت هذه الشخصيات مختبرات الذكاء الاصطناعي إلى تعليق العمل على تطوير أي تقنية تفوق جي بي تي 4 (GPT-4) تطوراً مدة ستة أشهر.
ويقول منتقدو هذه الرسالة إن القلق بشأن مخاطر المستقبل يشتت انتباهنا ويحوّل تركيزنا عن الأضرار الحقيقية التي يتسبب بها الذكاء الاصطناعي اليوم، وأنا أتفق مع وجهة النظر هذه. حيث يتم استخدام الأنظمة المتحيزة لاتخاذ القرارات بشأن حياة البشر، وينجم عنها التسبب بإفقارهم، أو تعريضهم للاعتقالات الخاطئة. كما يضطر مشرفو المحتوى البشريون إلى تدقيق كميات هائلة من المحتوى المسيء الذي ولّده الذكاء الاصطناعي، وذلك لقاء دولارين يومياً فقط. وتتطلب نماذج الذكاء الاصطناعي اللغوية مستويات عالية من قدرات الحوسبة، إلى درجة أنها باتت من أضخم مصادر التلوث.
ولكن الأنظمة التي تسارع الشركات إلى طرحها في الأسواق حالياً ستتسبب بنوع مختلف تماماً من الفوضى عما قريب.
نماذج الذكاء الاصطناعي اللغوية سهلة الاستخدام من قبل الجميع
وقد نشرتُ منذ فترة وجيزة مقالاً يوضح بعض الطرق المسيئة لاستخدام نماذج الذكاء الاصطناعي اللغوية. وأحمل إليكم خبراً سيئاً: فهذه النماذج سهلة الاستخدام حتى بالنسبة للأغبياء، ولا تتطلب أي مهارات برمجية، ولا توجد أي طرق معروفة لمعالجة مشاكلها حتى الآن. وعلى سبيل المثال، فإن الهجمة المعروفة باسم الحقن غير المباشر للتعليمات (indirect prompt injection) لا تتطلب سوى إخفاء تعليمة نصية في رسالة مكتوبة بذكاء على موقع ويب أو في رسالة بالبريد الإلكتروني، وذلك بكتابتها بأحرف بيضاء على خلفية بيضاء، بحيث تصبح غير مرئية للعين المجردة. وبمجرد القيام بهذا، يمكنك توجيه الأوامر إلى نموذج الذكاء الاصطناعي لفعل ما تريد.
تقوم الشركات التكنولوجية بإدماج هذه النماذج التي تعاني من عيوب وثغرات مروّعة في منتجاتها من جميع الأنواع، بدءاً من البرامج التي تقوم بتوليد كتل التعليمات البرمجية، وصولاً إلى المساعدات الافتراضية (الرقمية) التي تقوم بتدقيق رسائل البريد الإلكتروني والتقويم.
اقرأ أيضاً: كيف تسمم النصوص التي يولدها الذكاء الاصطناعي الإنترنت؟
إنترنت ذكاء اصطناعي مزعجة
وبهذا، فإنها عملياً تدفعنا بسرعة نحو مستقبل وشيك نتعامل فيه مع إنترنت عاملة بالذكاء الاصطناعي، ومليئة بمكامن الخلل والإزعاجات والاحتيال.
إن السماح لهذه النماذج اللغوية بسحب البيانات من الإنترنت يمنح المخترقين (الهاكرز) إمكانية تحويلها إلى "برامج عالية القدرة لتوليد الرسائل المزعجة (سبام) وعمليات تصيّد المعلومات"، كما يقول الأستاذ المساعد في مجال علوم الحاسوب في المعهد الفدرالي للتكنولوجيا في زيورخ والذي يعمل على أمن الحواسيب والخصوصية والتعلم الآلي، فلوريان تريمر.
دعوني أشرح لكم كيف يحدث هذا الأمر. في البداية، يقوم المهاجم بإخفاء تعليمة خبيثة ضمن رسالة في بريد إلكتروني يفتحها مساعد رقمي يعمل بالذكاء الاصطناعي. وتقوم تعليمة المهاجم بتوجيه المساعد الافتراضي لإرسال قائمة جهات الاتصال أو رسائل البريد الإلكتروني الخاصة بالضحية إلى المهاجم، أو لنشر الهجوم إلى كل شخص (جهة اتصال) ضمن قائمة جهات الاتصال لدى الطرف المتلقي للرسالة. وعلى العكس من الرسائل المزعجة (سبام) والاحتيالية (سكام) بالبريد الإلكتروني، حيث يجب استخدام الخداع لدفع الشخص إلى الضغط على الروابط التشعبية، فإن هذه الأنواع الجديدة من الهجمات ستكون مؤتمتة وخفية بالنسبة للعين البشرية.
وهو ما يعني وقوع كارثة مؤكدة إذا تمكن المساعد الافتراضي من الوصول إلى معلومات حساسة، مثل بيانات التعامل مع البنوك أو البيانات الصحية. إن القدرة على تغيير سلوك المساعد الافتراضي الذي يعمل بالذكاء الاصطناعي يمكن أن يؤدي إلى إمكانية خداع الناس للموافقة على إجراء معاملات تبدو شبيهة بما يكفي بالمعاملات الحقيقية، ولكنها مدسوسة من قبل المهاجم.
كما أن تصفح الإنترنت باستخدام متصفح مزود بنموذج ذكاء اصطناعي لغوي مدمج سيكون أمراً خطيراً. وفي أحد الاختبارات، تمكن أحد الباحثين من دفع بوت الدردشة في متصفح بينغ (Bing) إلى توليد نص يحاكي رسالة من أحد موظفي مايكروسوفت (Microsoft) لبيع منتجات الشركة بأسعار مخفضة، في محاولة للحصول على معلومات البطاقات الائتمانية للمستخدمين. ولا يتطلب تشغيل محاولة الاحتيال من مستخدم بينغ أي شيء سوى زيارة موقع ويب يحتوي على التعليمة المحقونة بشكل خفي.
اقرأ أيضاً: لماذا لم يصمد أحدث النماذج اللغوية الكبيرة من ميتا على الإنترنت أكثر من 3 أيام؟
مخاطر على النماذج اللغوية ذاتها
حتى إن ثمة خطراً يتمثل في إمكانية اختراق هذه النماذج قبل نشرها للاستخدام بين العامة. فنماذج الذكاء الاصطناعي مُدَرّبة باستخدام كميات ضخمة من البيانات التي تم جمعها من الإنترنت. وتنطوي هذه البيانات أيضاً على مجموعة متنوعة من الأخطاء البرمجية، والتي اكتشفتها أوبن أيه آي (OpenAI) بصعوبة بالغة. فقد اضطرت الشركة إلى إيقاف عمل تشات جي بي تي مؤقتاً بعد أن بدأ خطأ برمجي ورد ضمن مجموعة من البيانات مفتوحة المصدر في التسبب بتسريب سجلات الدردشات السابقة لمستخدمي البوت. ومع أن هذا الخطأ البرمجي من المفترض أنه كان محض صدفة، إلا أنه يبين مدى المشاكل التي يمكن أن تتسبب بها الأخطاء البرمجية الكامنة في مجموعات البيانات.
وقد وجد فريق تريمر أن "تسميم" مجموعات البيانات بالمحتوى الذي قاموا بزرعه أمر سهل وقليل التكلفة. وقد تم تلقيم البيانات المُختَرَقة بعد ذلك في النموذج اللغوي.
فكلما زاد عدد مرات ظهور شيء ما ضمن مجموعة البيانات، أصبح الترابط في نموذج الذكاء الاصطناعي أكثر قوة. وبدسّ ما يكفي من المحتوى الخبيث عبر مجموعة البيانات التدريبية، يصبح من المحتمل التأثير على سلوك النموذج ونتائجه دون أي إمكانية للتراجع عن ذلك.
وستتضاعف هذه المخاطر عندما يتم استخدام أدوات الذكاء الاصطناعي اللغوية لتوليد التعليمات البرمجية المستخدمة ضمن البرامج.
اقرأ أيضاً: مايكروسوفت تبني أداة لتعقب المعتدين على الأطفال على الإنترنت
يقول الباحث والمطور البرمجي المستقل الذي قام بدراسة التعليمات المحقونة، سيمون ويليسون: "إذا قمت بتصميم برنامج على أساس كتل التعليمات البرمجية هذه، ولم تكن تدري بوجود التعليمات المحقونة، فمن المحتمل أن ترتكب بعض الأخطاء الفادحة، وتصبح الأنظمة التي بنيتها غير آمنة وضعيفة الحماية".
مع انتشار استخدام نماذج الذكاء الاصطناعي اللغوية، سيزداد الحافز لدى الأطراف الخبيثة لاستخدامها في القرصنة. إنها موجة هائلة من المشاكل والمتاعب، ونحن لسنا في أدنى درجات الاستعداد لها.