كيف ستُعيد مايكروسوفت تشكيل مستقبل الذكاء الاصطناعي بنموذجها اللغوي الصغير أوركا 2؟

3 دقائق
كيف ستُعيد مايكروسوفت تشكيل مستقبل الذكاء الاصطناعي بنموذجها اللغوي الصغير أوركا 2؟
حقوق الصورة: أنسبلاش

أعلنت شركة مايكروسوفت الأميركية إطلاق أوركا 2 (Orca 2)، وهو نموذج لغوي صغير (SLM) مفتوح المصدر يمكنه أداء العديد من المهام التي تتطلب التفكير. تقول مايكروسوفت إن أوركا 2 يتفوق على النماذج ذات الحجم المماثل ويحقق مستويات أداء مشابهة أو أفضل بـ 5 إلى 10 مرات من النماذج اللغوية الكبيرة، خاصة في المهام التي تتطلب تفكيراً معقداً.

يُظهر هذا النموذج أن النماذج اللغوية الصغيرة آخذة في النمو وأنها يمكن أن توفّر بديلاً أكثر فاعلية من حيث التكلفة للنماذج اللغوية الكبيرة مثل جي بي تي-4 (GPT-4) وبالم 2 (PaLm 2) التي تتطلب الكثير من موارد الحوسبة والطاقة.

اقرأ أيضاً: قدرات غير متوقعة «تنبثق» من النماذج اللغوية الكبيرة

ما هو أوركا 2؟

أوركا 2 هو نموذج لغوي صغير يمكنه توليد إجابات باللغة الطبيعية بناءً على مدخلات المستخدم. يمكنه أيضاً تلخيص النصوص وتنفيذ مهام أخرى باللغة الطبيعية. دُرِّب أوركا 2 على كمية كبيرة من البيانات النصية من مجالات مختلفة، مثل الأخبار والكتب والمقالات ومنشورات مواقع التواصل الاجتماعي.

ما هي النماذج اللغوية الصغيرة؟

النماذج اللغوية الصغيرة هي نماذج ذكاء اصطناعي تتضمن معلمات أقل من النماذج اللغوية الكبيرة. المعلمات هي القيم الرقمية التي تحدد كيفية معالجة النموذج للمدخلات وإنشاء المخرجات. يعكس عدد المعلمات حجم النموذج وتعقيده. على سبيل المثال، يحتوي أوركا 2 على نحو 300 مليون معلمة، بينما يحتوي جي بي تي-4 على نحو 175 مليار معلمة.

تدريب النماذج اللغوية الصغيرة ونشرها أسهل، لأنها تتطلب بيانات ووقتاً وقوة حوسبة أقل من النماذج اللغوية الكبيرة.

اقرأ أيضاً: شركة ميتا تطورّ نماذج ذكاء اصطناعي جديدة تتحدث أكثر من ألف لغة

ما الفرق بين النماذج اللغوية الصغيرة والنماذج اللغوية الكبيرة؟

يتمثل الاختلاف الرئيسي بينهما في كمية البيانات التي تدرَّبت عليها والمهام التي يمكنها تنفيذها. تُدرَّب النماذج اللغوية الكبيرة على كميات هائلة من البيانات، ما يمكّنها من اكتساب مجموعة واسعة من المعلومات اللغوية والواقعية، يمكنها أيضاً إنشاء نصوص متماسكة ومتنوعة حول مواضيع ومجالات مختلفة. لكن النماذج اللغوية الكبيرة لها بعض العيوب، مثل التكاليف المالية المرتفعة لتشغيلها والمخاطر الأخلاقية والتحيزات.

تُدرَّب النماذج اللغوية الصغيرة على بيانات أقل، ما يحد من تنوعها ويجعلها تجد صعوبة في إنشاء نصوص طويلة ومعقدة أو التعامل مع المدخلات النادرة أو الجديدة. لكن تتمتع النماذج اللغوية الصغيرة ببعض المزايا؛ مثل انخفاض التكاليف المالية، وسهولة التفسير والتحكم، وزيادة الكفاءة وقابلية التوسع.

اقرأ أيضاً: نماذج ذكاء اصطناعي مصغّرة قد تغير وجه التطبيقات على هاتفك الذكي

كيف يتفوق أوركا 2 على النماذج الأكبر منه؟

أحد التحديات الرئيسية التي تواجه النماذج اللغوية الصغيرة هو أداء المهام التي تتطلب المنطق والحس السليم، مثل الإجابة عن الأسئلة أو تلخيص النصوص. تتضمن هذه المهام فهم معنى وسياق المدخلات، بالإضافة إلى إنشاء مخرجات دقيقة وذات صلة. ولتحقيق ذلك، تحتاج النماذج اللغوية الصغيرة إلى شكل من أشكال مهارات التفكير.

صُمم أوركا 2 ليتمتع بقدرات معالجة مماثلة للنماذج اللغوية الكبيرة باستخدام مجموعة من التقنيات مثل:

  • التدريب المسبق: تدريب النموذج على مجموعة كبيرة ومتنوعة من البيانات النصية لتعلم المهارات اللغوية العامة.
  • الضبط الدقيق: تكيُّف النموذج مع مهمة أو مجال محدد من خلال تدريبه على مجموعة بيانات أصغر وأكثر صلة.
  • زيادة البيانات: إنشاء بيانات جديدة ومتنوعة من البيانات الموجودة مسبقاً لزيادة تنوع النموذج.
  • حقن المعرفة: إضافة معلومات أو قواعد إلى النموذج لتعزيز معلوماته الواقعية والمنطقية.

باستخدام هذه التقنيات، أصبح بإمكان أوركا 2 أداء العديد من مهام اللغة الطبيعية التي تتطلب التفكير بمستوى مماثل أو أفضل بـ 5 إلى 10 مرات من النماذج اللغوية الكبيرة، وفقاً لمايكروسوفت، يستطيع أوركا 2 الإجابة عن أسئلة مثل "مَن هو رئيس فرنسا؟" أو "ما عاصمة تركيا؟" بدقة عالية، يستطيع أيضاً تلخيص النصوص مثل المقالات بطريقة متماسكة، وإنشاء تسميات توضيحية للصور أو مقاطع الفيديو.

اقرأ أيضاً: كيف «يفكر» الذكاء الاصطناعي؟

هل سيكون أوركا 2 بديلاً عن النماذج اللغوية الكبيرة؟

ليس المقصود من أوركا 2 أن يكون بديلاً للنماذج اللغوية الكبيرة، بل مكملاً لها، فهو جزء من رؤية مايكروسوفت لإضفاء الطابع المعمم على معالجة اللغة الطبيعية وجعلها في متناول الجميع بتكلفة معقولة.

أوركا 2 هو نموذج مفتوح المصدر يمكن لأي شخص استخدامه أو تعديله أو تحسينه لأغراضه الخاصة مجاناً، كما أنه متوافق مع أطر العمل والمنصات المختلفة، مثل باي تورش (PyTorch) وتنسرفلو (TensorFlow).

اقرأ أيضاً: كيف يرى سام ألتمان مستقبل البشرية مع الذكاء الاصطناعي؟

سوف يفتح أوركا 2 المجال لتوفير معالجة اللغة الطبيعية باستخدام موارد حوسبة وطاقة أقل، لكنه قد لا يكون مثالياً، ولا يمثّل حلاً نهائياً لمشكلات النماذج اللغوية، بل هو خطوة إلى الأمام في مجال تطوير معالجة اللغة الطبيعية.