إصدار محسن من نموذج جي بي تي 3 للكتابة بالاعتماد على الذكاء الاصطناعي

3 دقائق
إنستراكت جي بي تي
حقوق الصورة: إم إس تك/ إنفاتو.

قامت شركة "أوبن إيه آي" (OpenAI) ببناء نسخة جديدة من النموذج اللغوي جي بي تي 3 الشهير والثوري، وتقول إن هذه النسخة مصممة للتخلص من بعض أسوأ المشاكل التي عانت منها النسخ السابقة. يقول المختبر الواقع في سان فرانسيسكو إن النموذج المحدث، والذي يحمل اسم إنستراكت جي بي تي، أفضل في اتباع تعليمات مستخدميه –وهي ميزة تعرف باسم "المواءمة" في مصطلحات الذكاء الاصطناعي- ما يجعله أقل إنتاجاً للغة المسيئة، والمعلومات المزيفة، وأقل إنتاجاً للأخطاء عموماً، ما لم يُطلب منه صراحة التوقف عن ذلك.

يتم تدريب النماذج اللغوية الكبيرة، مثل جي بي تي 3، باستخدام كتل كبيرة من النصوص، والتي يتم الحصول على معظمها من الإنترنت، حيث يمكن أن نجد أفضل وأسوأ ما عبر عنه البشر باستخدام الكلمات. وهذه هي المشكلة في بوتات الدردشة وأدوات توليد النصوص الحالية. حيث تقوم هذه النماذج بامتصاص اللغة المسيئة –من النصوص العنصرية والمعادية للنساء أو التي تنطوي على تحيزات مسيئة- إضافة إلى المعلومات المزيفة. 

نموذج إنستراكت جي بي تي من أوبن إي آي

وقد جعلت أوبن إيه آي نموذج إنستراكت جي بي تي النموذج الافتراضي لمستخدمي واجهة التطبيقات البرمجية الخاصة بها، وهي خدمة تتيح استخدام النماذج اللغوية للشركة مجاناً. ويقول جان ليكي، وهو أحد قادة فريق المواءمة في أوبن إيه آي: "إنها المرة الأولى التي تُطبق فيها تقنيات المواءمة هذه على منتج حقيقي".

تضمنت بعض المحاولات السابقة للتعامل مع المشكلة فلترة اللغة المسيئة من مجموعة التدريب. ولكن هذا قد يقلل من مستوى أداء النماذج، خصوصاً في الحالات التي تكون فيها بيانات التدريب قليلة مسبقاً، مثل النصوص من شرائح الأقليات.

ولهذا، قرر باحثو أوبن إيه آي تفادي هذه المشكلة بالبدء بالعمل مع نموذج جي بي تي 3 كامل التدريب. ومن ثم قاموا بإضافة جولة أخرى من التدريب، حيث استخدموا التعليم المعزز لتعليم النموذج ما يجب قوله ومتى، بناء على قواعد من المستخدمين البشر.

اقرأ أيضاً: هل ينجح الذكاء الاصطناعي حقاً في مراقبة خطاب الكراهية؟

كيف تم تدريب النموذج؟

ولتدريب إنستراكت جي بي تي، استأجرت أوبن إيه آي 40 شخصاً لتصنيف استجابات جي بي تي 3 إلى مجموعة من الطلبات المكتوبة سلفاً، مثل "اكتب قصة حول ضفدع حكيم اسمه يوليوس" أو "اكتب إعلاناً مبتكراً للمنتج التالي لوضعه على فيسبوك". وحازت الإجابات المتوائمة مع النية الظاهرة لكاتب الطلب على علامات عالية. أما الاستجابات التي تضمنت لغة جنسية أو عنيفة، أو إساءة لإحدى الشرائح، أو التعبير عن رأي، أو غير ذلك، فحازت على علامات منخفضة. وبعد ذلك، تم استخدام هذا التقييم كمكافأة في خوارزمية التعلم المعزز التي قامت بتدريب النموذج على الاستجابة إلى الطلبات بالطريقة التي يفضلها الحكام. 

ووجدت أوبن إيه آي أن مستخدمي واجهة التطبيقات البرمجية الخاصة به فضلوا إنستراكت جي بي تي على جي بي تي 3 بنسبة تفوق 70%. يقول بين رو، مدير المنتجات في شركة أبحاث الأسواق "يابل" (Yabble)، والتي تعتمد على نماذج أوبن إيه آي لبناء ملخصات طبيعية اللغة حول معلومات البيانات الخاصة بعملائها: "لم نعد نرى أي أخطاء قواعدية في توليد اللغة، كما لاحظنا تقدماً واضحاً في قدرة النموذج على فهم التعليمات واتباعها".

يقول إيليا سوتسكيفر، العالم الأساسي في أوبن إيه آي: "من الرائع أن نرى أن العملاء يفضلون هذه النماذج المتوائمة على غيرها بكثير، وهذا يعني وجود حوافز كبيرة لبنائها".

أيضاً، قارن الباحثون عدة نسخ مختلفة الأحجام من إنستراكت ج بي تي، ووجدوا أن المستخدمين يفضلون استجابات نموذج إنستراكت جي بي تي بحجم 1.3 مليار معامل على استجابات نموذج جي بي تي 3 الذي يبلغ حجمه 175 مليار معامل، على الرغم من أن النموذج الجديد أصغر من القديم بأكثر من 100 ضعفاً. هذا يعني أن المواءمة يمكن أن تكون طريقة سهلة لتحسين النماذج اللغوية، بدلاً من زيادة حجمها وحسب، كما يقول ليكي.

يقول داوي كيلا، وهو باحث في "هاغينغ فيس" (Hugging Face)، وهي شركة ذكاء اصطناعي تعمل على النماذج اللغوية مفتوحة المصدر: "يمثل هذا العمل خطوة مهمة في الاتجاه الصحيح". ويشير إلى أن عملية التدريب التي تعتمد على الملاحظات البشرية يمكن أن تُكرر لعدة دورات متتابعة، لتحسين النموذج حتى أكثر من ذي قبل. ويقول ليكي إن أوبن إيه آي يمكن أن تحقق هذا بالبناء على أساس ملاحظات العملاء.

اقرأ أيضاً: ريترو: نموذج لغوي جديد من ديب مايند يستطيع التفوق على نماذج تفوقه حجماً

إنستراكت جي بي تي بحاجة المزيد من التدريب

ما زال إنستراكت جي بي تي يرتكب بعض الأخطاء البسيطة، حيث ينتج أحياناً بعض الردود الخالية من المعنى أو التي لا تتعلق بالطلب، فإذا قُدم إليه طلب يحتوي على معلومة خاطئة، فسوف يعتبرها صحيحة. ونظراً لتدريبه على تحقيق طلبات المستخدمين، فسوف ينتج لغة مسيئة أكثر من جي بي تي 3 إذا ما طُلب منه هذا.

أما إيهود ريتير، والذي يعمل على أنظمة الذكاء الاصطناعي الخاصة بتوليد النصوص في جامعة أبيردين في المملكة المتحدة، فهو يرحب بأي طريقة تقلل من قدر المعلومات المزيفة التي تنتجها النماذج اللغوية. ولكنه يلحظ أن بعض التطبيقات، مثل الذكاء الاصطناعي الذي يقدم النصائح الطبية، لا تحتمل أي قدر من المعلومات المزيفة، مهما كان صغيراً. ويشكك ريتير بقدرة النماذج اللغوية الكبيرة، المبنية حول شبكات عصبونية فائقة التعقيد، على ضمان سلامة المستخدم. ولهذا، يفضل التهجين بين الشبكات العصبونية والذكاء الاصطناعي الرمزي، وهو نظام قيود بقواعد مكتوبة برمجياً لتحديد ما يستطيع النموذج قوله وما لا يستطيع.

ومهما كان التطبيق، ما زال العمل طويلاً. يقول كيلا: "لم نقترب حتى من حل هذه المشكلة".

المحتوى محمي