الجميع في انتظار جي بي تي 4 وأوبن أيه آي ما زالت تحاول إصلاح الإصدار السابق

4 دقائق
مصدر الصورة: ستيفاني أرنيت/ إم آي تي تي آر

ما زال جي بي تي 4 (GPT-4)، وهو الإصدار الجديد المنتظر والذي لم يتم الإعلان عنه بعد من النموذج اللغوي الكبير الثوري جي بي تي 3 الذي أطلقته شركة أوبن أيه آي (OpenAI)، يثير الاهتمام والضجيج الإعلامي بصورة متزايدة أسبوعاً تلو الآخر. ولكن أوبن أيه آي لم تنتهِ بعد من العمل على الإصدار السابق.

تشات جي بي تي

فقد أطلقت الشركة التي تعمل في سان فرانسيسكو نسخة تجريبية من نموذج جديد يحمل اسم تشات جي بي تي (ChatGPT)، وهو إصدار معدل من جي بي تي 3 للإجابة عن الأسئلة عن طريق الحوار المبني على الأسئلة والأجوبة. وفي منشور مدونة، قالت أوبن أيه آي، إن هذه الصيغة الحوارية تتيح لنموذج تشات جي بي تي "الإجابة عن الأسئلة المتتالية، والاعتراف بأخطائه، ومعارضة المعلومات الخاطئة، ورفض الطلبات غير المناسبة".

ومع أن تشات جي بي تي يعالج بعض هذه المشاكل، فإنه ما زال بعيداً عن معالجتها بالكامل، كما وجدتُ عندما تمكنتُ من تجربته. وهو ما يشير إلى أن جي بي تي 4 لن يتمكن من معالجتها أيضاً.

اقرأ أيضاً: تشات جي بي تي (ChatGPT)؟ وهل سيزلزل عرش جوجل ويهدد وظائف البشر؟

جي بي تي 4

وعلى وجه الخصوص، فإن تشات جي بي تي ما زال يقدم معلومات مبتدعة من قبله، على غرار غالاكتيكا (Galactica)، النموذج اللغوي الكبير الذي صممته ميتا (Meta) للأغراض العلمية، والذي قامت لاحقاً بإزالته بعد ثلاثة أيام من إطلاقه وحسب خلال شهر نوفمبر الفائت. وكما يقول جون شولمان، وهو عالم في أوبن أيه آي، فما زال هناك الكثير مما يجب فعله: "لقد حققنا بعض التقدم في معالجة هذه المشكلة، ولكننا ما زلنا بعيدين عن حلها بالكامل".

تقوم جميع النماذج اللغوية بتركيب الهراء. ولكن تشات جي بي تي يتميز عنها بقدرته على الاعتراف بعدم فهمه لما يتحدث عنه. تقول رئيسة قسم التكنولوجيا في أوبن أيه آي، ميرا موراتي: "إذا سألته: هل أنت متأكد؟ سيقول: في الواقع ربما لا". وخلافاً لمعظم النماذج اللغوية السابقة، يرفض تشات جي بي تي الإجابة عن الأسئلة حول مواضيع لم يسبق أن تم تدريبه عليها. على سبيل المثال، لن يحاول الإجابة عن أحداث وقعت بعد 2021. كما أنه لن يجيب عن أسئلة حول أفراد محددين.

إن تشات جي بي تي هو النموذج الشقيق لإنستراكت جي بي تي (InstructGPT)، وهو إصدار من جي بي تي 3 تم تدريبه على إنتاج نصوص أقل إساءة. وهو مماثل أيضاً لنموذج يحمل اسم سبارو (Sparrow)، والذي كشفت أوبن أيه آي الستار عنه في سبتمبر/ كانون الأول. وقد تم تدريب النماذج الثلاثة جميعاً باستخدام معلومات وملاحظات من مستخدمين بشر.

فلبناء تشات جي بي تي، طلبت أوبن أيه آي أولاً من الناس تقديم أمثلة حول ما يعتبرونه ردوداً جيدة على عدة أسئلة حوارية مختلفة (كمُدخلات). وتم استخدام هذه الأمثلة لتدريب نسخة أولية من النموذج. وبعد ذلك، قام البشر بوضع نقاط لتقييم مخرجات النموذج، وتم تلقيم هذه النقاط لخوارزمية تعلم معزز قامت بتدريب النسخة النهائية من النموذج، وذلك لإنتاج ردود تحقق عدداً أعلى من النقاط. وقد أقر المستخدمون البشر بأن الردود أفضل من تلك التي أنتجها جي بي تي 3 الأصلي.

اقرأ أيضاً: ما الذي يعرفه نموذج الذكاء الاصطناعي جي بي تي 3 عني؟

نموذج محسن عما سبقه

وعلى سبيل المثال، إذا قلنا لجي بي تي 3: "حدثني عن زيارة كريستوفر كولومبوس إلى الولايات المتحدة في عام 2015"، فسوف يقول لك إن "كريستوفر كولومبوس زار الولايات المتحدة في 2015، وكان متحمساً للغاية لوجوده هنا". ولكن تشات جي بي تي سيجيب كما يلي: "هذا السؤال صعب بعض الشيء، لأن كريستوفر كولومبوس توفي في عام 1506".

وبشكل مماثل، يمكن توجيه السؤال التالي إلى جي بي تي 3: "كيف يمكن أن أتنمر على جون دو؟" وسيجيب: "هناك بضع وسائل للتنمر على جون دو". أما تشات جي بي تي، فسوف يجيب كما يلي: "ليس من المقبول على الإطلاق التنمر على أي شخص".

يقول شولمان إنه يستخدم بوتات الدردشة في بعض الأحيان لكشف أخطائه البرمجية. ويقول: "إن استخدامه كإجراء أولي عندما أصاب بالحيرة أمر جيد في أغلب الأحيان. قد لا تكون الإجابة الأولى صحيحة تماماً، ولكن يمكنك أن تضعها على المحك، وسيقوم البرنامج بتدقيقها لتقديم نتيجة أفضل".

وفي عرض تجريبي مباشر قدمته أوبن أيه آي لي مؤخراً، لم يحقق تشات جي بي تي نتائج جيدة. فقد طلبتُ منه أن يخبرني عن نماذج الانتشار –وهي التقنية التي أدت إلى الطفرة الحالية في الذكاء الاصطناعي التوليدي- ولكن رده كان من خلال بضعة مقاطع حول عملية الانتشار في الكيمياء. وحاول شولمان تصحيحه وكتب بالإنجليزية "I mean diffusion models in machine learning" (أنا أعني نماذج التوزيع في التعلم الآلي). فعزز تشات جي بي تي إجابته غير المجدية بعدة مقاطع إضافية، وحدق شولمان في الشاشة بإمعان: "حسناً، إنه يتحدث عن شيء مختلف كلياً".

فقال شولمان: "لنكتب ما يلي: ’generative image models like DALL-E‘ (نماذج توليد الصور مثل دال-إي)" ثم حدق بالإجابة قائلاً: "إنه مخطئ تماماً، فهو يقول إن دال-إي شبكة توليدية تنافسية". ولكن، وبما أن تشات جي بي تي هو بوت دردشة، يمكننا مواصلة التجربة. وهكذا، كتب شولمان: "I've read that DALL-E is a diffusion model" (لقد قرأت أن دال-إي نموذج انتشار). وعندها صحح تشات جي بي تي نفسه، وتوصل إلى الإجابة الصحيحة في المحاولة الرابعة.

اقرأ أيضاً: مختبر أوبن إيه آي يمنح مايكروسوفت حقَّ الوصول الحصري إلى نموذجه اللغوي جي بي تي 3

نماذج تحتاج مستخدمين يكشفون أخطائها

إن التشكيك في مخرجات نموذج لغوي كبير بهذه الطريقة أسلوب فعّال في مواجهة الردود التي يقدمها النموذج. ولكنه ما زال في حاجة إلى مستخدم يكتشف الإجابة الخاطئة أو إساءة تفسير السؤال في المقام الأول. وبالتالي، فإن هذه المقاربة غير مجدية عند توجيه أسئلة إلى النموذج حول مواضيع لا نعرف عنها شيئاً من قبل.

تعترف أوبن إيه آي بأن معالجة هذا الخلل مسألة صعبة. فليست هناك طريقة لتدريب النموذج اللغوي الكبير على تمييز الواقع من الخيال. كما أن زيادة حرص النموذج في إجاباته تؤدي في أغلب الأحيان إلى منعه من الإجابة عن أسئلة كان يمكن أن يجيب عنها بشكل صحيح. وكما تقول موراتي: "نحن نعرف أن هذه النماذج تتمتع بقدرات حقيقية". "ولكن ليس من السهل تمييز المفيد وغير المفيد منها. ومن الصعب أن تثق بنصيحتها".

تعمل أوبن أيه آي على نموذج لغوي آخر، يحمل اسم ويب جي بي تي (WebGPT)، وذلك للبحث عن المعلومات على الإنترنت وتقديم المصادر التي تدعم إجاباته. ويقول شولمان إنهم قد يقومون بترقية تشات جي بي تي لامتلاك هذه القدرة خلال الأشهر القليلة المقبلة.

اقرأ أيضاً: نظرة عن كثب إلى البرمجيات التي ستشكل ساحة الحرب المقبلة بين أميركا والصين

وفي محاولة لتحسين هذه التكنولوجيا، ترغب أوبن أيه آي من الناس تجربة الإصدار التجريبي من تشات جي بي تي، والمتوافر على موقع الويب الخاص بها، والإبلاغ عن المشاكل التي يصادفهوها. إنها طريقة جيدة لاكتشاف العيوب، وربما إصلاحها يوماً ما. وفي هذه الأثناء، إذا ظهر جي بي تي 4 قريباً، فلا تصدق كل ما يقوله لك.