قامت مجموعة تضم أكثر من 1,000 باحث في مجال الذكاء الاصطناعي ببناء نموذج لغوي كبير متعدد اللغات، وهو أكبر من "جي بي تي 3"، وقررت المجموعة تقديمه مجاناً لمن يرغب.
إذا رغبت لسبب ما في الذهاب إلى مكان يجمع ما بين ضجيج الروك وأبحاث الذكاء الاصطناعي، فلن تجد أفضل من العاصمة الفرنسية باريس. فداخل مركز الحوسبة الخارقة للمركز الفرنسي الوطني للأبحاث العلمية، على أطراف باريس، تقبع صفوف متتالية مما يبدو أشبه بثلاجات سوداء، وهي تدوي بضجيج يصم الآذان عند مستوى 100 ديسيبل.
وتشكل هذه الحواسيب جزءاً من الحاسوب العملاق الخارق الذي أمضى 117 يوماً وهو "يهضم" النموذج اللغوي الكبير (LLM) الجديد الذي يحمل اسم بلوم (BLOOM)، والذي يمثل توجهاً ثورياً جديداً في تطوير الذكاء الاصطناعي بطريقة تختلف عن الطريقة المعتادة.
فخلافاً للنماذج اللغوية الكبيرة الأكثر شهرة، مثل جي بي تي 3 (GPT-3) من أوبن أيه آي (OpenAI) ولامدا (LaMDA) من جوجل (Google)، فإن النموذج بلوم (وهذا الاسم اختصار بالإنجليزية للعبارة: النموذج اللغوي الضخم متعدد اللغات للعلوم المفتوحة والمتاح للعموم من بيغ ساينس) مصمم حتى يكون شفافاً قدر الإمكان، حيث يشارك الباحثون التفاصيل المتعلقة بالبيانات التي تم تدريبه عليها، والتحديات التي واجهت تطويره، وطرق تقييم أدائه. لم تقم أوبن أيه آي أو جوجل بمشاركة الرموز البرمجية لنماذجهما مع العامة، كما أن الباحثين من خارج المؤسستين لا يعرفون الكثير حول تدريب هذه النماذج.
أما بلوم فقد تم بناؤه على مدى السنة الماضية من قبل أكثر من 1,000 باحث متطوع، وذلك في إطار مشروع بيغ ساينس (BigScience)، والذي تم تنسيقه من قبل الشركة الناشئة هاغينغ فيس (Hugging Face) بتمويل من الحكومة الفرنسية. وتم إطلاقه رسمياً في 12 يوليو/ تموز. ويأمل الباحثون بتطوير نموذج لغوي كبير متاح للجميع وأداء يضاهي أداء النماذج المتطورة، وذلك لفتح المجال أمام تحقيق تطورات طويلة الأمد في ثقافة تطوير الذكاء الاصطناعي، والمساعدة في جعل التكنولوجيات الأحدث في مجال الذكاء الاصطناعي متاحة لجميع الباحثين حول العالم.
اقرأ أيضاً: ما هي أهم ميزة أغفلها الضجيج الإعلامي بشأن نموذج الذكاء الاصطناعي الجديد من ديب مايند؟
تمثل سهولة الوصول إلى النموذج أهم ميزة فيه. والآن، وبعد أن تم إطلاقه، يستطيع الجميع تنزيله عن الإنترنت من موقع هاغينغ فيس والتلاعب به دون أي تكلفة. يستطيع المستخدمون الاختيار من بين تشكيلة من اللغات، ومن ثم طباعة طلب لبلوم حتى يقوم بتأدية مهام مثل كتابة الوصفات أو القصائد، والترجمة أو تلخيص النصوص، أو حتى كتابة تعليمات برمجية. ويستطيع مطورو الذكاء الاصطناعي استخدام النموذج كأساس لتطبيقاتهم الخاصة.
يتضمن النموذج 176 مليار معامل (وهي متحولات تحدد كيفية تحويل بيانات الدخل إلى الخرج المطلوب)، ما يجعله أضخم من جي بي تي 3 من أوبن أيه آي، والذي يتضمن 175 مليار معامل، وتقول مجموعة بيغ ساينس إنه يضاهي النماذج الأخرى من نفس الحجم من حيث مستويات الدقة والنتائج المسيئة. وبالنسبة لبعض اللغات، مثل الإسبانية والعربية، يعتبر بلوم أول نموذج لغوي كبير من هذا الحجم.
ولكن حتى مصممي النموذج يحذرون من أنه لن يصلح المشكلات المتجذرة والمتعلقة بالنماذج اللغوية الكبيرة، بما فيها نقص السياسات المناسبة حول إدارة البيانات والخصوصية، إضافة إلى ميل الخوارزمية إلى تركيب المحتوى المسيئ، مثل اللغة العنصرية والمعادية للنساء.
اقرأ أيضاً: معهد الابتكار التكنولوجي يطلق “نور”: نموذج الذكاء الاصطناعي القادر على معالجة اللغة العربية
النشر في العلن
تُعرّف النماذج اللغوية الكبيرة بأنها خوارزميات تعلم عميق مدربة على كميات هائلة من البيانات. وتعتبر أحد أكثر مجالات أبحاث الذكاء الاصطناعي شهرة واجتذاباً للباحثين. ويمكن للنماذج المتطورة، مثل جي بي تي 3 ولامدا، والتي تنتج نصوصاً تبدو وكأنها من إنتاج بشري، أن تؤثر بدرجة كبيرة على طريقة معالجتنا للمعلومات على الإنترنت. حيث يمكن استخدامها لتصميم بوتات دردشة للبحث عن المعلومات، ومراقبة المحتوى على الإنترنت، وتلخيص الكتب، أو توليد مقاطع نصية جديدة كاملة بناءً على تعليمات محددة. ولكنها مليئة بالمشكلات أيضاً. فأتفه الأسباب قد تدفع هذه النماذج لإنتاج محتوى مؤذٍ.
علاوة على ذلك، فهذه النماذج حصرية للغاية. ويجب تدريبها على كميات هائلة من البيانات باستخدام قدرات حاسوبية مكلفة للغاية، وهو أمر لا تستطيع تحمل تكاليفه سوى الشركات التكنولوجية الضخمة (والأميركية في معظم الأحيان) مثل جوجل.
تقوم معظم الشركات التي تطور النماذج اللغوية الكبيرة عالية المستوى بوضع قيود جديدة على استخدامها من قبل الأشخاص خارج الشركة، كما أنها لا تنشر أي معلومات حول الآليات الداخلية لهذه النماذج. وهو ما يزيد من صعوبة تحميلها المسؤولية. إن هذه السرية والحصرية هي ما يأمل الباحثون العاملون على بلوم بتغييره.
وقد بدأت شركة ميتا (Meta) باتخاذ بعض الخطوات للابتعاد عن هذا الأسلوب، ففي مايو/ أيار من عام 2022 أطلقت الشركة نموذجها اللغوي الكبير الخاص بها، المحول المفتوح المدرب مسبقاً (Open Pretrained Transformer) أو "أو بي تي 175 بي" (OPT-175B) إضافة إلى تعليماته البرمجية والسجل الذي يتضمن تفاصيل تدريب النموذج.
اقرأ أيضاً: إصدار محسن من نموذج جي بي تي 3 للكتابة بالاعتماد على الذكاء الاصطناعي
ولكن نموذج ميتا متاح فقط عند الطلب، كما أنه مرخص بشكل يجعل استخدامه مقتصراً على الأغراض البحثية وحسب. أما هاغينغ فيس فقد قررت أن تقوم بأكثر من ذلك. فقد تم تسجيل الاجتماعات التي تم عقدها على مدى السنة الماضية لتفصيل كيفية عمله وتحميلها على الإنترنت، ويستطيع أي شخص أن يقوم بتنزيل النموذج مجاناً واستخدامه لأغراض بحثية أو لبناء تطبيقات تجارية.
وركزت مجموعة بيغ ساينس على وجه الخصوص على إدماج الاعتبارات الأخلاقية في النموذج منذ بداية التصميم، بدلاً من التعامل معها كإضافات لاحقة. يتم تدريب النماذج اللغوية الكبيرة على البيانات التي تُجمَع من الإنترنت. وقد يؤدي هذا إلى العديد من المشكلات؛ لأن مجموعات البيانات هذه تتضمن الكثير من المعلومات الشخصية وغالباً ما تعكس تحيزات خطيرة. ولهذا، قامت المجموعة بتطوير هيكليات بنيوية لإدارة البيانات بشكل مخصص للنماذج اللغوية الكبيرة، بحيث توضح طبيعة البيانات المستخدمة والجهات العائدة لها، كما استخدمت عدداً من مجموعات البيانات من أنحاء العالم، وهي مجموعات لم تكن متاحة بسهولة على الإنترنت.
كما ستقوم المجموعة بإطلاق رخصة جديدة للذكاء الاصطناعي المسؤول، وهي أقرب ما يكون إلى اتفاقية شروط الخدمة. وهذه الرخصة مصممة للردع عن استخدام بلوم في القطاعات الخطرة والحساسة، مثل إنفاذ القانون والرعاية الصحية، أو لإيذاء الناس أو خداعهم أو استغلالهم أو تقليدهم. وتمثل هذه الرخصة تجربة في التنظيم الذاتي للنماذج اللغوية الكبيرة قبل أن تظهر القوانين المتعلقة بهذه المسألة، كما يقول باحث الذكاء الاصطناعي المتطوع في المشروع والذي ساهم في صياغة الرخصة، دانيش كونتراكتور. ولكن، وفي نهاية المطاف، لا يوجد ما يمنع أي شخص من إساءة استخدام بلوم.
اقرأ أيضاً: كيف تصمم نموذج ذكاء اصطناعي دون أن تكون خبيراً في البرمجة؟
لقد تم بناء المشروع وفق ضوابط أخلاقية محددة خاصة به منذ البداية، وكانت هذه الضوابط تؤدي دور مبادئ محددة لتوجيه عملية تطوير النموذج، كما تقول أخصائية الأخلاق في هاغينغ فيس، والتي وضعت مسودة المخطط الأخلاقي لبلوم، جيادا بيستيلي. وعلى سبيل المثال، فقد حرص المشروع على تجنيد متطوعين من خلفيات وأماكن متنوعة، لضمان قدرة الجميع في الداخل والخارج على تكرار نتائج المشروع ونشرها في العلن.
مشاركة شاملة في العمل
تحولت هذه الفلسفة إلى فارق كبير بين بلوم وغيره من النماذج اللغوية الكبيرة الموجودة حالياً، أي العدد الكبير من اللغات البشرية التي يستطيع النموذج فهمها. ويستطيع النموذج التعامل مع 46 لغة، بما في ذلك الفرنسية، والفيتنامية، والمندرين، والإندونيسية، والكتالونية، إضافة إلى 13 لغة من الهند (مثل الهندية) و20 لغة إفريقية. أما نسبة اللغة الإنجليزية في بيانات التدريب فقد كانت أكثر من 30% بقليل فقط. ويستطيع النموذج فهم 13 لغة برمجة أيضاً.
وهو أمر غير مألوف على الإطلاق في عالم النماذج اللغوية الكبيرة، والذي تهيمن عليه الإنجليزية. وهذه نتيجة أخرى ناجمة عن تدريب النماذج اللغوية الكبيرة باستخدام بيانات من الإنترنت. فالإنجليزية هي اللغة الأكثر استخداماً على الإنترنت.
وتعود قدرة بلوم على تجاوز هذه المشكلة إلى جمع الفريق للمتطوعين من جميع أنحاء العالم لبناء مجموعات بيانات ملائمة بلغات أخرى، حتى لو لم تكن هذه اللغات منتشرة بصورة جيدة على الإنترنت. وعلى سبيل المثال، قامت هاغينغ فيس بتنظيم ورشات عمل مع باحثي الذكاء الاصطناعي الأفارقة في محاولة لإيجاد مجموعات بيانات، مثل سجلات من الهيئات والسلطات المحلية أو الجامعات، لاستخدامها لتدريب النموذج على اللغات الإفريقية، كما يقول المتدرب في هاغينغ فيس والباحث في منظمة ماساخان (Masakhane) التي تعمل في مجال معالجة اللغات الطبيعية للغات الإفريقية، كريس إيميزو.
إن تدريب النموذج على الكثير من اللغات المختلفة يمكن أن يمثل مساعدة كبيرة للغاية لباحثي الذكاء الاصطناعي في الدول الفقيرة، والذين غالباً ما يواجهون صعوبات كبيرة في العمل في مجال معالجة اللغة الطبيعية، لأنها تتطلب قدرات حاسوبية باهظة التكاليف. ويسمح بلوم للباحثين بتجاوز مرحلة تطوير وتدريب النماذج، وهي المرحلة الأكثر كلفة من العمل، من أجل التركيز على بناء التطبيقات وتعديل النماذج للقيام بمهام محددة باستخدام لغاتهم المحلية.
يقول إيميزو: "إذا رغبت بأن تدمج اللغات الإفريقية في مستقبل معالجة اللغات الطبيعية، فإن إدماجها في عملية تدريب النماذج اللغوية أمر جيد للغاية وخطوة فائقة الأهمية".
العمل بحذر
أنجز مشروع بيغ ساينس عملاً "مذهلاً" في بناء مجموعة كبيرة حول بلوم، كما أن مقاربته في إدماج الأخلاقيات والإدارة منذ البداية هي مقاربة عميقة وتتسم بالحرص، كما يقول الأستاذ المساعد في علوم الحاسوب في جامعة ستانفورد، والمختص بالنماذج اللغوية الكبيرة، بيرسي ليانغ.
ولكن ليانغ لا يعتقد أن هذا سيؤدي إلى تغيير كبير في عملية تطوير النماذج اللغوية الكبيرة. ويقول: "ما زالت أوبن أيه آي وجوجل ومايكروسوفت تمضي قدماً دون توقف".
وفي نهاية المطاف، ما زال بلوم نموذجاً لغوياً كبيراً، وما زال يحمل جميع العيوب والمخاطر التي تحملها جميع هذه النماذج. وتقول الشركات التي لم تنشر نماذجها أو التعليمات البرمجية لهذه النماذج، مثل أوبن أيه آي، إن اللغة العنصرية والمعادية للنساء، والتي تحملها هذه النماذج، تجعلها خطيرة للغاية وغير صالحة للاستخدام بهذه الطريقة.
اقرأ أيضاً: نموذج جديد للذكاء الاصطناعي يفهم العلاقات بين الأشياء كالبشر
وتقول باحثة الذكاء الاصطناعي والمختصة بأخلاقيات الذكاء الاصطناعي في هاغينغ فيس، مارغريت ميتشل، إنه من المرجح أن يتضمن بلوم أيضاً العديد من مشكلات الدقة والتحيز في اللغة، ولكن، وبما أن كل شيء متعلق بهذا النموذج معلن أمام الجميع، فسيكون من السهل كشف نقاط القوة والضعف لهذا النموذج.
ومن المحتمل أن مشروع بلوم نفسه ليس أكبر مساهمة لبيغ ساينس في مجال الذكاء الاصطناعي، بل المشاريع الفرعية المتعددة التي يساهم فيها متطوعو المشروع. وعلى سبيل المثال، يمكن لهذه المشاريع أن تعزز مواصفات النموذج من حيث الخصوصية، وتتوصل إلى أساليب لاستخدام هذه التكنولوجيا في مجالات مختلفة، مثل الأبحاث الطبية الحيوية.
يقول الباحث في هاغينغ فيس، والذي ساهم في قيادة عملية تدريب بلوم، تيفين لو سكاو: "لن يؤدي نموذج لغوي كبير واحد إلى تغيير مجرى التاريخ. ولكن وجود نموذج لغوي كبير جيد ومفتوح، يستطيع الجميع استخدامه في الأبحاث بحرية، سيكون له أثر بعيد المدى".
اقرأ أيضاً: نموذج تعلم آلي من جوجل يحول رسوماتك إلى وحوش خيالية
أما فيما يتعلق بالمضار المحتملة للنماذج اللغوية الكبيرة، فإن "الجني قد خرج من القمقم مسبقاً، ولم يعد هناك ما يمكن فعله"، كما يقول لو سكاو. "وأفضل ما يمكن فعله هو توفير أفضل الظروف الممكنة للباحثين لدراسة هذه النماذج".