لماذا تقول برامج المساعدات الرقمية أشياء غبية؟

2 دقائق
مصدر الصورة: بروذر يو كيه عبر فليكر

ما زال المساعدان الرقميان سيري وأليكسا أبعد ما يكون عن المثالية، ولكن الأمل ما زال موجوداً بإمكانية تحولهما إلى مساعدين فصيحين قريباً بفضل التقدم الثابت في التعلم الآلي. غير أنه يوجد اختبار جديد قد يساعد على إثبات وجوب اتباع مقاربة مختلفة لأنظمة الذكاء الاصطناعي فيما يتعلق بإتقان اللغة. يسمى هذا الاختبار بتحدي المنطق إيه آي 2 (ARC)، وقام بتطويره باحثون من معهد آلين للذكاء الاصطناعي (إيه آي 2)، وهو منظمة غير ربحية في سياتل، ويقوم على طرح أسئلة علمية بمستوى المدرسة الابتدائية ذات خيارات متعددة للأجوبة. يتطلب كل سؤال شيئاً من فهم كيفية عمل العالم الحقيقي، وتتضمن هذه الورقة البحثية بصيغة PDF شرحاً عن المشروع.

من الأسئلة المطروحة: "أي الأشياء المذكورة في الأسفل غير مصنوع من مادة تنمو طبيعياً؟" قميص قطني- كرسي خشبي – ملعقة بلاستيكية – سلة عشبية

يعتبر هذا السؤال سهلاً بالنسبة لأي شخص يعرف أن البلاستيك لا ينمو. حيث أن الجواب يحتاج إلى شيء من المنطق السليم حول العالم، وهو ما يمتلكه حتى الأطفال الصغار.

غير أن هذا المنطق السليم هو الذي يفتقر إليه الذكاء الاصطناعي للمساعدات الرقمية، وبوتات الدردشة، وبرامج الترجمة، وهو أحد أسباب إصابة هذه التقنيات بالارتباك.

يمكن لأنظمة اللغات التي تعتمد على التعلم الآلي أن تقدم، في أغلب الأحيان، أجوبة مناسبة عن بعض الأسئلة التي تدربت على أمثالها لمرات كثيرة من قبل. وعلى سبيل المثال، يمكن تدريب برنامج ما على آلاف نصوص الدردشة للدعم التقني، وسيصبح باستطاعته أن يقدم الدعم التقني بنفسه في بعض الأوضاع البسيطة. ولكن هذا النظام سيفشل إذا سؤل عن شيء ما يتطلب معرفة أكبر.

يقول بيتر كلارك، الباحث الرئيسي في مشروع ARC: "يجب أن نستخدم منطقنا السليم لملء الفراغات في اللغة التي نستخدمها، ونشكل صورة متماسكة عن المعنى الحقيقي لما يقال. لا تمتلك الآلات هذا المنطق، ولهذا فهي لا ترى سوى ما هو مذكور بصراحة، ولا تستطيع تمييز النتائج والافتراضات الكثيرة الكامنة ما بين السطور".

يعتبر الاختبار الجديد جزءاً من مبادرة في إيه آي 2 لتزويد أنظمة الذكاء الاصطناعي بهذا الفهم للعالم. وتنبع أهميته من صعوبة تحديد مدى فهم نظام اللغة لما يقال بالضبط.

وعلى سبيل المثال، قام باحثون في مايكروسوفت، ومجموعة أخرى في شركة علي بابا الصينية، بتطوير برامج بسيطة للأسئلة والأجوبة، تفوقت على البشر في اختبار بسيط يسمى مجموعة ستانفورد للأسئلة والأجوبة. وترافق هذا العمل بعناوين رنانة للصحف تزعم بأن برامج الذكاء الاصطناعي تفوقت على البشر في القراءة. ولكن البرامج في الواقع لم تستطع الإجابة عن أسئلة أكثر تعقيداً أو تعتمد على مصادر معرفية أخرى.

ستستمر الشركات التقنية في محاولة تسويق قدرات أنظمة الذكاء الاصطناعي بهذه الطريقة. فقد أعلنت مايكروسوفت أنها طورت برنامجاً قادراً على ترجمة القصص الإخبارية من اللغة الإنجليزية إلى الصينية وبالعكس، مع نتائج تكافئ عمل المترجمين المحترفين، وفقاً لمتطوعين مستقلين قاموا بتقييم عمل البرنامج. وقد استخدم باحثو الشركة تقنيات متقدمة في التعلم العميق للوصول إلى مستويات جديدة من الدقة. وفي حين أن هذا البرنامج قد يكون مفيداً للغاية، إلا أنه سيعاني من المتاعب إذا طلبت منه ترجمة حوارات حرة أو نص ما من مجال غير مألوف، مثل الملاحظات الطبية.

يشغل جاري ماركوس منصف بروفسور في جامعة نيويورك، وهو ممن يؤكدون أهمية المنطق السليم في الذكاء الاصطناعي، وقد أحس بأهمية تحدي إيه آي 2 قائلاً: "أعتقد أن هذا الاختبار سيكون الدواء الشافي لظاهرة انتشار التقييمات السطحية التي أصبحت شائعة في مجال التعلم الآلي. وسيرغم جميع باحثي الذكاء الاصطناعي على تقديم المزيد من الجهد".

المحتوى محمي