كيف يمكن للتعلم الآلي الخبيث أن يقضي على الذكاء الاصطناعي؟

2 دقائق
مصدر الصورة: جيريمي بورتجي

لن يتمكن الذكاء الاصطناعي من إحداث ثورة في أي شيء إذا أصبح بوسع القراصنة العبث به.

هذا هو التحذير الذي أطلقته داون سونج، الأستاذة في جامعة كاليفورنيا بيركلي، والمختصة بدراسة المخاطر الأمنية المتعلقة بالذكاء الاصطناعي والتعلم الآلي.

تحدثت سونج في إمتيك ديجيتل، وهو حدث نظمته إم آي تي تكنولوجي ريفيو في سان فرانسيسكو، وقد حذرت هناك من أن الأساليب الجديدة المستخدمة لسبر أنظمة التعلم الآلي والتلاعب بها، والتي يطلق عليها المختصون اسم أساليب "التعلم الآلي التنافسي"، قد تحدث مشاكل كبيرة بالنسبة لأي شخص يحاول استثمار قدرات الذكاء الاصطناعي في مجال الأعمال. وقد قالت إنه يمكن استخدام التعلم الآلي التنافسي لمهاجمة أي نظام مبني على هذه التكنولوجيا تقريباً: "إنها مشكلة كبيرة. ويجب أن نتعاون معاً لمواجهتها".

يتضمن التعلم الآلي التنافسي اختبار الخوارزمية عن طريق تلقيمها بيانات للكشف عن المعلومات التي تم تدريبها عليها، أو تخريب الدخل بطريقة تؤدي إلى تشويش عمل النظام. وعلى سبيل المثال، فإن تلقيم خوارزمية رؤية حاسوبية بالكثير من الصور قد يتيح معرفة وظيفتها بالهندسة العكسية، وضمان الحصول على نتائج معينة، بما فيها النتائج الخاطئة.

قدمت سونج عدة أمثلة عن حيل التعلم الآلي التنافسي التي قامت مجموعتها البحثية بدراستها.

نُفذ أحد المشاريع بالتعاون مع جوجل، ويتضمن سبر خوارزميات التعلم الآلي التي تقوم بتوليد ردود مؤتمتة على رسائل البريد الإلكتروني (والتي استخدمت لتدريبها مجموعة بيانات البريد الإلكتروني إنرون). وقد بين هذا العمل أنه يمكن بصياغة الرسائل بطريقة محددة دفع النموذج الآلي إلى تقديم بيانات حساسة، مثل أرقام البطاقات الائتمانية. وقد استخدمت جوجل هذه النتائج لمنع استغلال ميزة التأليف الذكي "Smart Compose" -التي تقوم بتوليد النص آلياً- بهذه الطريقة.

تضمن مشروع آخر تعديل إشارات الطرق ببضعة لصاقات بريئة الشكل لخداع أنظمة الرؤية الحاسوبية المستخدمة في الكثير من السيارات. وفي عرض بالفيديو، أظهرت سونج كيف يمكن خداع السيارة لجعلها تعتقد أن إشارة التوقف هي إشارة تقول أن حد السرعة يبلغ 45 ميلاً في الساعة، وهو ما قد يمثل مشكلة كبيرة بالنسبة لأنظمة القيادة الآلية التي تعتمد على معلومات كهذه.

أصبح التعلم الآلي التنافسي مجالاً يحظى باهتمام متزايد من باحثي التعلم الآلي. وعلى مدى السنتين الماضيتين، بينت مجموعات بحثية أخرى كيف يمكن سبر واستغلال واجهات برمجة التطبيقات على الإنترنت التي تعتمد على التعلم الآلي، ولذلك لتطوير أساليب لخداعها ودفعها للكشف عن معلومات حساسة.

ليس من المفاجئ أن التعلم الآلي التنافسي يحظى باهتمام كبير من الأوساط الدفاعية. فمع تزايد عدد الأنظمة العسكرية –بما فيها أنظمة الحساسات والأسلحة- التي تعتمد على التعلم الآلي، هناك فرصة كبيرة لاستخدام هذه الأساليب دفاعياً وهجومياً.

في هذه السنة، أطلقت داربا، الوكالة البحثية التابعة للبنتاجون، مشروعاً كبيراً باسم جارد (اختصاراً لعبارة ضمان مقاومة الذكاء الاصطناعي للخداع)، وهو يركز على دراسة التعلم الآلي التنافسي. وقد قالت هافا سينجلمان -مديرة برنامج جارد- مؤخراً لإم آي تي تكنولوجي ريفيو أن هدف المشروع تطوير نماذج ذكاء اصطناعي قادرة على مقاومة نطاق واسع من الهجمات التنافسية، بدلاً من أن تكون قادرة على الدفاع عن نفسها ضد هجمات محددة وحسب.

المحتوى محمي