حدث كل شيء بسرعة. فخلال أقل من أسبوع بعد إطلاق ميتا (Meta) لنموذج الذكاء الاصطناعي الخاص بها، لاما 2 (LLaMA 2)، تمكن الجميع، من شركات ناشئة وباحثين، من استخدامه لتطوير بوت دردشة ومساعد يعمل بالذكاء الاصطناعي. أصبحت مسألة بدء الشركات بإطلاق منتجات مبنية على أساس هذا النموذج مسألة وقت لا أكثر.
من شأن وجود نموذج سهل الاستخدام وشفاف وقابل للتعديل ومجاني أن يساعد الشركات على تقديم منتجات ذكاء اصطناعي وخدماته بوتيرة أسرع مما هو متاح في حالة النماذج الضخمة والمعقدة والخاضعة لسيطرة جهات معينة، مثل نموذج جي بي تي 4 (GPT-4) الذي تملكه شركة أوبن أيه آي (OpenAI).
الشفافية مقارنة بالسرية فيما يتعلق بآليات عمل نماذج الذكاء الاصطناعي
إلا أن ما يلفت النظر حقاً هو مدى انفتاح شركة ميتا. فهي تسمح للجميع من أوساط الذكاء الاصطناعي العامة بتنزيل النموذج عن الإنترنت وتعديله؛ وهو ما يمكن أن يجعله أكثر أماناً وفعالية. والأهم من هذا أنه يمكن أن يثبت فوائد الشفافية مقارنة بالسرية فيما يتعلق بآليات العمل الداخلية لنماذج الذكاء الاصطناعي، وهو أمر فائق الأهمية وجاء في توقيت مناسب للغاية.
حيث تُسارع الشركات التكنولوجية إلى إطلاق نماذج الذكاء الاصطناعي الخاصة بها في متناول الجميع، وبدأنا نشهد دمج الذكاء الاصطناعي التوليدي في عدد أكبر من المنتجات. ولكن أقوى النماذج المعروفة، مثل جي بي تي 4 من شركة أوبن أيه آي، ما زالت تحت حراسة مشددة يفرضها مبتكروها. حيث يحصل المطورون والباحثون على إمكانات وصول محدودة إلى هذه النماذج لقاء رسوم مالية عبر مواقع ويب معينة، ولا يعرفون تفاصيل آليات عملها الداخلية.
ويمكن أن يؤدي هذا التعتيم إلى مشاكل في المستقبل، كما تُبين ورقة بحثية جديدة لم تخضع لمراجعة الأقران بعد، وأثارت بعض الضجة مؤخراً. فقد وجد باحثون من جامعة ستانفورد وجامعة كاليفورنيا في مدينة بيركلي أن جي بي تي 3.5 (GPT-3.5) وجي بي تي 4 أسوأ أداء في حل مسائل الرياضيات، والإجابة عن الأسئلة الحساسة، وتوليد التعليمات البرمجية، وعمليات التفكير البصري، مما كانا عليه قبل شهرين.
اقرأ أيضاً: 10 أدوات ذكاء اصطناعي مفيدة في حياتك اليومية
أساليب غير موثوقة للتقييم
تفتقر هذه النماذج إلى الشفافية، وهذا يصعّب من تحديد السبب الفعلي لما يحدث، إلا أنه بغض النظر عن ذلك، فإن هذه النتائج ليست دقيقة تماماً، كما كتب أستاذ علوم الحاسوب في جامعة برينستون، أرفيند نارافانان، في تقييمه. من المرجح أن هذه النتائج تعود إلى "أساليب غير موثوقة استخدمها المؤلفون في التقييم" لا إلى أدلة فعلية تشير إلى أن أوبن أيه آي تسببت بتراجع أداء النموذجين. ويعتقد أن الباحثين فشلوا في أن يأخذوا بعين الاعتبار أن أوبن أيه آي ضبطت عمل النماذج كي تحسن من أدائها، ما أدى على نحو غير مقصود إلى توقف بعض تقنيات الأوامر النصية عن العمل كما كانت تعمل سابقاً.
يمكن أن يؤدي هذا إلى بعض النتائج الخطيرة. فالشركات التي بَنَت منتجاتها وضبطتها للعمل مع إصدار معين من نماذج أوبن أيه آي يمكن أن "تلاحظ على نحو مؤكد أنها بدأت ترتكب الأخطاء وتتوقف عن العمل فجأة"، على حد تعبير باحثة الذكاء الاصطناعي في الشركة الناشئة هاغينغ فيس (Hugging Face)، ساشا لوتشيوني. عندما تضبط أوبن أيه آي عمل نماذجها بهذه الطريقة، فإن المنتجات المصممة لاستخدام أوامر نصية محددة للغاية، على سبيل المثال، قد تتوقف عن العمل بالطريقة التي كانت تعمل بها من قبل. وتضيف قائلة إن النماذج المغلقة تفتقر إلى المسؤولية أيضاً. وتقول: "إذا كان لديك منتج، وأحدثت فيه تغييراً ما، فمن المفترض أن تبلغ عملاءك بهذا الأمر".
ففي حالة نموذج مفتوح المصدر مثل لاما 2، ستوضح الشركة على الأقل كيف صممت النموذج وما هي التقنيات التي استخدمتها لتدريبه. على عكس أوبن أيه آي، شاركت ميتا التصميم الكامل للاما 2 مع الجميع، بما في ذلك تفاصيل طريقة التدريب، والتجهيزات المستخدمة، وطريقة تصنيف البيانات، والتقنيات المستخدمة للتخفيف من الأضرار. تقول لوتشيوني إن الأشخاص الذين يجرون الأبحاث على النموذج ويبنون المنتجات على أساسه يعرفون ما الذي يتعاملون معه بالضبط.
وتضيف قائلة: "عندما يكون النموذج مفتوحاً، يمكن إجراء جميع أنواع التجارب للتأكد من الحصول على أداء أفضل أو تحيز أقل، أو أي شيء آخر ترغب بتحقيقه".
اقرأ أيضاً: مصطفى سليمان: طورت اختبار تورينغ لمعرفة قدرة الذكاء الاصطناعي على جني مليون دولار
الجدل حول النماذج المفتوحة والمغلقة
في المحصلة، فإن الجدل الدائر حول النماذج المفتوحة والمغلقة يؤول في نهاية المطاف إلى مصدر القرار. ففي النماذج المفتوحة، يتمتع المستخدمون بدرجة أعلى من النفوذ والتحكم. أما في النماذج المغلقة، يبقى الجميع تحت رحمة مصممي هذه النماذج.
إن إطلاق شركة كبيرة مثل ميتا نموذجَ ذكاء اصطناعي مفتوحاً وشفافاً إلى هذه الدرجة يبدو أقرب إلى نقطة تحول محتملة في خضم هذا الاندفاع المحموم نحو الذكاء الاصطناعي التوليدي.
وإذا بدأت المنتجات المبنية على أساس النماذج المغلقة الخاصة بالشركات -وهي نماذج أحدثت ضجة إعلامية كبيرة- تُصاب بأعطال محرجة على نحو مفاجئ، ولم يتمكن المطورون من الاطلاع على الأسباب المحتملة لهذه المشكلة، فيمكن لأي نموذج ذكاء اصطناعي مفتوح وشفاف يتمتع بأداء مماثل أن يبدو خياراً أكثر جاذبية ووثوقية على نحو مفاجئ.
غير أن ميتا لا تقوم بهذا بدافع من فعل الخير وحسب. فمن الممكن أن تحقق الكثير من المكاسب بإفساح المجال أمام الآخرين لسبر نماذجها وكشف أخطائها. وقد قال لي نائب مدير قطاع الذكاء الاصطناعي في شركة ميتا والمشرف على عملها في مجال الذكاء الاصطناعي التوليدي، أحمد الدالي، إن الشركة ستجمع كل ما يمكن اكتسابه من معلومات وملاحظات من الأوساط التكنولوجية الواسعة خارج نطاق الشركة، وتستثمرها في تحسين نماذجها.
اقرأ أيضاً: بيل غيتس يطمئنك: لا تقلق من الذكاء الاصطناعي
ومع هذا، فإنها خطة في الاتجاه الصحيح، على حد تعبير لوتشيوني. وتأمل أن هذا الإجراء من ميتا سيؤدي إلى زيادة الضغط على الشركات التكنولوجية الأخرى التي تنتج نماذج الذكاء الاصطناعي لاتخاذ توجه أكثر انفتاحاً.
وتقول: "أنا معجبة للغاية بميتا لحفاظها على هذه الدرجة من الانفتاح".