منذ فترة وجيزة، سُربت مُذكّرة يُقال إنها من تأليف لوك سيرناو، أحد كبار مهندسي جوجل، وقد عبّرت هذه المذكرة دون مواربة عما كان موضوع الأحاديث الخافتة والجانبية في وادي السيليكون منذ أسابيع، وهو الخطر الداهم الذي يمثله العمل المفتوح المصدر والمتاح للجميع على سيطرة الشركات التكنولوجية الكبرى على الذكاء الاصطناعي.
ثمة العديد من النماذج اللغوية الكبيرة المفتوحة المصدر، التي تمثل بدائل لنموذج بارد من جوجل أو تشات جي بي تي من أوبن أيه آي، وهي متاحة للباحثين ومطوري البرمجيات لدراستها والبناء عليها وتعديلها، وهي تظهر بوتيرة متسارعة كما لو أنها قطع حلوى تتساقط من كيس مثقوب مليء بالحلوى. تتسم هذه النماذج بأنها نُسخ أصغر وأقل تكلفة من نماذج الذكاء الاصطناعي المتفوقة التي أنتجتها الشركات الكبيرة، لكنها تكاد تماثلها من حيث الأداء، وهي متاحة للمشاركة مجاناً.
طرف خارجي يقتحم مجال الشركات التكنولوجية الكبرى بهدوء
لقد كانت الشركات الكبيرة مثل جوجل (التي كشفت في استعراضها السنوي للمنتجات مؤخراً عن خطتها لإضافة الذكاء الاصطناعي التوليدي إلى جميع منتجاتها، بدءاً من جيميل (Gmail) وصولاً إلى فوتوز (Photos) ومابس (Maps)) مشغولة بالمنافسة التي اندلعت بعضها مع بعض، إلى درجة أنها لم تنتبه لظهور المنافسة الحقيقية، كما كتب سيرناو: "لقد كنا مشغولين بالخصومة فيما بيننا، ولم ننتبه لوجود طرف خارجي يقتحم مجالنا بهدوء".
ثمة العديد من الأسباب التي تدعونا إلى الترحيب بهذا الأمر. فإتاحة الوصول إلى هذه النماذج على نطاق أوسع ساعدت على تعزيز الابتكار، ويمكن أن تساعد أيضاً على تصحيح عيوبها. لن يزدهر الذكاء الاصطناعي إذا احتكرته بضع شركات هائلة الثراء، أو سيطرت على كيفية استخدامه بالكامل.
لكن هذا الازدهار في العمل المفتوح المصدر ليس مستقراً. فمعظم الإصدارات المفتوحة المصدر ما زالت تعتمد على النماذج العملاقة التي صممتها الشركات الكبيرة والثرية. وإذا قررت أوبن أيه آي أو ميتا (Meta) إيقاف هذا العمل، فمن المحتمل أن يحل الركود محل الازدهار.
على سبيل المثال، فإن الكثير من هذه النماذج مبني على أساس لاما (LLaMA)، وهو نموذج لغوي كبير مفتوح المصدر نشره قسم الذكاء الاصطناعي في ميتا. وتعتمد نماذج أخرى على مجموعة بيانات عامة تحمل اسم بايل (Pile)، التي جمعتها شركة إليوثر أيه آي (EleutherAI) اللاربحية للمشاريع المفتوحة المصدر. لكن إليوثر أيه آي موجودة فقط بسبب الانفتاح الذي أتاحته أوبن أيه آي، ما يعني أن بعض المبرمجين تمكنوا من تطبيق الهندسة العكسية على جي بي تي 3 (GPT-3) لاكتشاف كيفية عمله، واستخدموا هذه المعلومات لبناء نموذج خاص بهم في أوقات فراغهم.
اقرأ أيضاً: ما الذي دفع مبتكري تشات جي بي تي إلى التهديد بمغادرة أوروبا؟
تقول ستيلا بايدرمان، التي توزع وقتها بين إليوثر أيه آي، حيث تشغل منصب المدير التنفيذي ومدير الأبحاث، وشركة الاستشارات بوز آلين هاميلتون (Booz Allen Hamilton): "أنجز قسم الذكاء الاصطناعي في ميتا عملاً رائعاً للغاية في تدريب وإطلاق النماذج للأوساط البحثية". ويسلط سيرناو الضوء أيضاً على الدور الحاسم لقسم الذكاء الاصطناعي في ميتا في مذكرة جوجل التي كتبها. من الجدير بالذكر أن جوجل أكدت لإم آي تي تكنولوجي ريفيو أن المذكرة هي فعلاً من تأليف أحد موظفيها، ولكنها أردفت أنها ليست بوثيقة رسمية تعبر عن استراتيجية الشركة.
ولكن من الممكن أن يتغير كل هذا. فقد بدأت أوبن أيه آي مسبّقاً بتغيير سياساتها السابقة الانفتاحية، بسبب المخاوف من المنافسة. ومن المحتمل أن تبدأ ميتا بالتخفيف من مخاطر استخدام الشركات الناشئة لبرمجياتها المفتوحة المصدر لأغراض مسيئة. تقول مديرة قسم الذكاء الاصطناعي في ميتا، جويل بيناو، متحدثة عن إتاحة الحصول على التعليمات البرمجية أمام الأطراف الخارجية: "أشعر بصدق أنه ليس الإجراء الصحيح في الوقت الحالي. أهذه هي الاستراتيجية نفسها التي سنعتمدها للسنوات الخمس المقبلة؟ لا أدري، لأن مجال الذكاء الاصطناعي يتحرك بسرعة كبيرة".
إذا لم يتوقف توجه الشركات الكبرى نحو منع الوصول إلى تكنولوجيات الذكاء الاصطناعي، فلن يقتصر التأثير على حرمان أوساط المصادر المفتوحة من هذه الموارد، بل سيؤدي هذا أيضاً إلى وضع مستقبل الجيل المقبل من إنجازات الذكاء الاصطناعي بالكامل في أيدي أكبر مختبرات الذكاء الاصطناعي وأثراها في العالم.
نحن الآن على مفترق طرق فيما يتعلق بمستقبل صناعة الذكاء الاصطناعي وكيفية استخدامه.
اقرأ أيضاً: كيف ستربح آبل من ثورة الذكاء الاصطناعي التوليدي؟
طفرة مكاسب المصادر المفتوحة
كانت البرمجيات المفتوحة المصدر موجودة منذ عدة عقود. فهي الأساس الذي تعتمد عليه شبكة الإنترنت. لكن تكلفة بناء النماذج العالية القدرة أدت إلى تأخير انطلاقة الذكاء الاصطناعي المفتوح المصدر إلى السنة الماضية تقريباً. وسرعان ما شهد هذا المجال ازدهاراً عالي المستوى.
يكفي أن ننظر إلى الأسابيع الماضية فحسب. ففي 25 مارس/ آذار، كشفت الشركة الناشئة هاغينغ فيس (Hugging Face) –المعروفة بتأييدها لإتاحة الذكاء الاصطناعي للجميع مجاناً- الستار عن أول بديل مفتوح المصدر لتشات جي بي تي، بوت الدردشة الشهير الذي أطلقته أوبن أيه آي في نوفمبر/ تشرين الأول.
طورت هاغينغ فيس بوت الدردشة الذي أطلقته، والذي يحمل اسم هاغينغ تشات (Hugging Chat)، على أساس نموذج لغوي كبير مفتوح المصدر معدّل بدقة خصوصاً للحوار، ويحمل اسم أوبن أسيستانت (Open Assistant)، وقد دُرّب هذا النموذج بمساعدة ما يقارب 13,000 متطوع، وأُطلق في أبريل/ نيسان من هذا العام 2023. لكن أوبن أسيستانت نفسه مبني على أساس نموذج لاما من ميتا.
أيضاً، أطلقت ستابيليتي أيه آي (Stability AI) النموذج اللغوي الكبير المفتوح المصدر ستيبل إل إم (StableLM) في 19 مارس/ آذار، وهي الشركة التي أطلقت النموذج الشهير لتحويل النصوص إلى صور، ستيبل ديفيوجن (Stable Diffusion). وبعد أسبوع، في 28 مارس/ آذار، أطلقت ستابيليتي أيه آي نموذج ستيبل فيكونا (StableVicuna)، وهي نسخة من ستيبل إل إم محسّنة خصوصاً للحوار، مثل أوبن أسيستانت أو هاغينغ تشات. ويمكن أن نعتبر ستيبل إل إم بمثابة رد شركة ستابيليتي أيه آي على جي بي تي 4 (GPT-4)، وستيبل فيكونا بمثابة ردها على تشات جي بي تي.
اقرأ أيضاً: كيف يؤثر الذكاء الاصطناعي في صناعة الأفلام؟
تمثل هذه النماذج الجديدة المفتوحة المصدر أحدث حلقات من سلسلة من النماذج الأخرى التي ظهرت في الأشهر القليلة الماضية، مثل ألباكا (Alpaca) الذي أطلقه فريق من جامعة ستانفورد، ودولي (Dolly) الذي أطلقته شركة البرمجيات داتابريكس (Databricks)، وسيريبراس جي بي تي (Cerebras-GPT) الذي أطلقته شركة الذكاء الاصطناعي سيريبراس (Cerebras). يعتمد معظم هذه النماذج في تصميمها على لاما أو مجموعات بيانات ونماذج من إليوثير أيه آي، في حين يعتمد تصميم سيريبراس-جي بي تي على قالب وضعته شركة ديب مايند (DeepMind). ومن المؤكد أننا سنشهد ظهور نماذج أخرى لاحقاً.
بالنسبة للبعض، يمثل المصدر المفتوح مسألة مبدأ. يقول باحث الذكاء الاصطناعي وصانع المحتوى على يوتيوب يانيك كيلتشر في مقطع فيديو لتقديم أوبن أسيستنات: "يمثل هذا العمل جهداً بذله مجتمع منتشر في أنحاء العالم كافة لتوفير قدرات الذكاء الاصطناعي الحواري للجميع، وإيقاف احتكار بضع شركات كبيرة لهذه التكنولوجيا.
أما جوليَن شوموند، أحد مؤسسي هاغينغ فيس، فقد قال في تغريدة نشرها منذ فترة قريبة: "لن نتخلى عن الكفاح في سبيل الذكاء الاصطناعي المفتوح المصدر".
أما بالنسبة للآخرين، فيمثل المصدر المفتوح مسألة ربح. فعلى سبيل المثال، تأمل ستابيليتي أيه آي تطبيق الحيلة نفسها التي استخدمتها في مجال الصور على بوتات الدردشة، أي تقديم الكثير من الدعم، ثم الاستفادة بعد ذلك من تدفق ابتكارات المطورين الذين يستخدمون منتجاتها. وتخطط الشركة لاختيار أفضل هذه الابتكارات وإدماجه ضمن منتجات مصممة خصوصاً لنطاق واسع من العملاء. يقول الرئيس التنفيذي لستابيليتي أيه آي، عماد مشتاق: "يقوم أسلوبنا على تحفيز الابتكار، ثم اختيار أفضل النتائج بعد ذلك لاستثمارها. إنه أفضل نموذج للأعمال في العالم".
وفي كلتا الحالتين، فإن هذا النتاج الوفير من النماذج اللغوية الكبيرة المجانية والمفتوحة سيؤدي إلى انتشار هذه التكنولوجيا بين الملايين في جميع أنحاء العالم، وإلهام الكثيرين لابتكار أدوات جديدة ودراسة طريقة عملها. تقول بايدرمان: "لقد أصبح الوصول إلى هذه التكنولوجيا أكثر سهولة بكثير من ذي قبل".
يقول أمير غافي، وهو محامٍ في شركة فرايد فرانك (Fried Frank) التي تمثّل قانونياً بعض شركات الذكاء الاصطناعي التوليدي، بما فيها ستابيليتي أيه آي: "وصل عدد مستخدمي هذه التكنولوجيا إلى مستويات مذهلة، دون مبالغة. وأعتقد أن هذه الظاهرة دليل على الإبداع البشري، وهو الهدف الجوهري من المشاريع المفتوحة المصدر".
اقرأ أيضاً: الذكاء الاصطناعي في قفص الاتهام: تلاعب بصور الناس وانتهاك للخصوصية
استنفاد قدرات وحدات المعالجة الرسومية
غير أن تدريب النماذج اللغوية الكبيرة بدءاً من الصفر، بدلاً من البناء على أساس نماذج أخرى أو تعديلها، أمر صعب. يقول مشتاق: "ما زالت هذه الموارد بعيدة عن متناول الغالبية العظمى من العاملين في هذا المجال. وقد تسببنا بإذابة مجموعة من وحدات المعالجة الرسومية في أثناء العمل على ستيبل إل إم".
حقق أول نظام أصدرته ستابيليتي أيه آي، وهو نموذج ستيبل ديفيوجن لتحويل النصوص إلى صور، أداء يضاهي أداء النماذج المشابهة –بل ربما يتفوق عليه- مثل إيماجين (Imagen) من جوجل ودال-إي 2 (Dall-E 2) من أوبن أيه آي. ولم يكن هذا النموذج متاحاً للاستخدام مجاناً، بل كان قابلاً للتشغيل على حاسوب منزلي جيد. تفوق ستيبل ديفيوجن في السنة الماضية على جميع النماذج الأخرى من حيث المساهمة في تحفيز التطوير المفتوح المصدر لأنظمة الذكاء الاصطناعي المخصصة لتركيب الصور.
ولكن مشتاق يريد هذه المرة أن يحثّ الجميع على التحلي بمزيد من الواقعية. فستيبل إل إم لا يكاد يقترب حتى من مستوى جي بي تي 4. ويقول: "ما زال أمامنا الكثير من العمل الذي يجب إنجازه. فهذا النظام مختلف عن ستيبل ديفيوجن، الذي أصبح صالحاً للاستخدام على الفور. تدريب النماذج اللغوية أكثر صعوبة بكثير".
ثمة مشكلة أخرى، وهي أن صعوبة تدريب النماذج تزداد مع ازدياد حجمها. ولا تؤثر هذه المشكلة على تكلفة الإمكانات الحاسوبية فقط. فعملية التدريب تتعرض للأعطال بوتيرة أكبر مع ازدياد حجم النموذج، ما يستلزم عندها البدء بها من جديد، وهو ما يزيد من تكلفة بناء هذه النماذج إلى درجة كبيرة.
من الناحية العملية، ثمة حد أعلى لعدد المعامِلات التي تستطيع معظم المجموعات دفع تكاليف تدريبها، على حد تعبير لبايدرمان. يعود هذا إلى ضرورة تدريب النماذج الكبيرة باستخدام عدة وحدات معالجة رسومية يجب وصلها معاً بطريقة معقدة. تقول بايدرمان: "يمثل تدريب النماذج بنجاح على هذا المستوى مجالاً جديداً للغاية من الأبحاث في الحوسبة العالية الأداء".
وعلى الرغم من أن الرقم الدقيق يمكن أن يتغير مع تطور التكنولوجيات، فإن بايدرمان تقدّر هذا الحد الأعلى بقيمة تتراوح بين 6 و10 مليارات معامل تقريبياً. على سبيل المقارنة، نذكر أن جي بي تي 3 يحتوي على 175 مليار معامل، أما لاما فيحتوي على 65 مليار معامل. تميل النماذج الأضخم إلى تقديم أداء أفضل بكثير، على الرغم من أن هذا الترابط ليس دقيقاً بالضرورة.
تتوقع بايدرمان استمرار طفرة النشاطات المتعلقة بالنماذج اللغوية الكبيرة المفتوحة المصدر. لكن هذه الطفرة ستركز على توسيع (أو تعديل) النماذج المسبّقة التدريب الموجودة من قبل، بدلاً من العمل على تطوير أسس هذه التكنولوجيا. تقول بايدرمان: "ثمة مجموعة صغيرة من المؤسسات التي بنت هذه النماذج المسبّقة التدريب، وأتوقع أنها ستواصل العمل بهذه الطريقة في المدى المنظور".
ولهذا، بُني الكثير من النماذج المفتوحة المصدر على أساس لاما، الذي دربه قسم الذكاء الاصطناعي في ميتا من الصفر، أو إصدارات من إليوثر إيه آي، وهي شركة لا ربحية تتميز بمساهماتها في التكنولوجيا المفتوحة المصدر. تقول بايدرمان إنها تعرف مجموعة واحدة مماثلة، وهي موجودة في الصين.
اقرأ أيضاً: تعرف على الفنان الأشهر في توليد الأعمال الفنية باستخدام الذكاء الاصطناعي
لقد حصلت إليوثر أيه آي على انطلاقتها بفضل أوبن أيه آي. وبالعودة إلى 2020، كانت الشركة التي تعمل في مدينة سان فرانسيسكو قد أطلقت نموذجاً جديداً رائعاً. تقول بايدرمان: "كان جي بي تي 3 بمثابة تغيير كبير بالنسبة للكثيرين في طريقة التفكير بالذكاء الاصطناعي الواسع النطاق. وغالباً ما يُعتَبَر نقلة فكرية نوعية في القدرات المُتَوَقَّعة لهذه النماذج".
أرادت بايدرمان مع عدد من الباحثين الآخرين، مدفوعين بالحماسة إزاء القدرات الكامنة لهذه التكنولوجيا، إجراء التجارب على النموذج لوضع تصور أفضل حول طريقة عمله. وقرروا استنساخ هذا النموذج.
لم تكن أوبن أيه آي قد أطلقت جي بي تي 3، ولكنها شاركت من المعلومات حول بنائه ما يكفي بايدرمان وزملاءها لاستنتاج جميع التفاصيل الضرورية. لم يسبق لأحد خارج أوبن أيه آي أن عمل على تدريب نموذج كهذا من قبل، ولكن، وفي خضم الجائحة، لم يكن لدى الفريق ما يشغله. تقول بايدرمان: "كنت منشغلة في عملي وأتسلى بالألعاب اللوحية عندما قررت المشاركة. ولهذا، كان من السهل نسبياً تخصيص 10 ساعات أو 20 ساعة أسبوعياً لهذا المشروع".
كانت الخطوة الأولى تجميع مجموعة بيانات جديدة وضخمة، تحتوي على المليارات من المقاطع النصية، وذلك لمضاهاة مجموعة التدريب التي استخدمتها أوبن أيه آي لتدريب جي بي تي 3. أطلقت إليوثر أيه آي على مجموعة بياناتها اسم بايل (Pile)، ونشرتها مجاناً في نهاية 2020.
وبعد ذلك، استخدمت إليوثر أيه آي مجموعة البيانات هذه لتدريب أول نماذجها المفتوحة المصدر. استغرق تدريب أكبر نموذج لإليوثر أيه آي ثلاثة أشهر ونصف الشهر، وذلك برعاية إحدى شركات الحوسبة السحابية. تقول بايدرمان: "لو دفعنا التكلفة من حسابنا الشخصي، لتكبدنا تكلفة تقارب 400,000 دولار. وهو مبلغ ضخم بالنسبة لمجموعة بحثية جامعية".
اقرأ أيضاً: كيف غيّر «تشات جي بي تي» نظرة العالم إلى الذكاء الاصطناعي؟
يد المساعدة
نظراً لهذه التكاليف، يمثل البناء على أساس النماذج الموجودة الخيار الأفضل والأسهل. وقد تحول نموذج لاما من قسم الذكاء الاصطناعي في ميتا إلى نقطة البدء المفضلة في الكثير من المشاريع المفتوحة المصدر. اعتمد قسم الذكاء الاصطناعي في ميتا على التطوير المفتوح المصدر منذ أن أسسه يان ليكون منذ عقد مضى. وتمثل هذه العقلية جزءاً من ثقافة العمل، كما تقول بيناو: "إنه أسلوب يعتمد على التحرك بسرعة والتطبيق العملي، بشكل مماثل للسوق الحرة".
وتؤكد بيناو فوائد هذا الأسلوب، قائلة: "يؤدي هذا الأسلوب إلى تنويع كبير في الكفاءات التي يمكن أن تسهم في تطوير هذه التكنولوجيا. هذا يعني أن الاطلاع على هذه النماذج لا يقتصر على الباحثين ورواد الأعمال، بل يمكن أن يُتاح أيضاً للحكومات المدنية وغيرها".
وعلى غرار عموم أوساط المشاريع المفتوحة المصدر، تعتقد بيناو وزملاؤها أن الشفافية يجب أن تكون المعيار السائد. وتقول: "أحاول حثّ الباحثين لديّ على البدء بالمشاريع بعقلية تقوم على الرغبة بجعلها مفتوحة المصدر. فالعمل بهذه الطريقة يدفع إلى زيادة صرامة المعايير إلى درجة كبيرة من حيث البيانات المستخدمة وكيفية بناء النموذج".
لكن هذا التوجه لا يخلو من المخاطر الكبيرة أيضاً. فالنماذج اللغوية الكبيرة تنتج المعلومات المزيفة والتحيز وخطاب الكراهية. ويمكن استخدامها لإنتاج الدعايات الموجهة على نطاق واسع، وإنتاج البرمجيات الخبيثة بأعداد كبيرة. تقول بيناو: "يجب التوصل إلى توازن بين الشفافية والأمن".
بالنسبة لقسم الذكاء الاصطناعي في ميتا، قد يعني هذا التوازن عدم إطلاق بعض النماذج أبداً. على سبيل المثال، لو عمل فريق بيناو على تدريب نموذج بالاعتماد على بيانات مستخدمي فيسبوك، فسوف يبقى هذا العمل محصوراً بنطاق الشركة، لأن خطر تسرب المعلومات الخاصة كبير للغاية. أما في الحالات الأخرى، فقد ينشر الفريق النموذج مرفقاً برخصة إلكترونية (ما يُعرف باتفاقية ترخيص المستخدم النهائي حيث يوافق المستخدم على بنودها بالنقر بالفأرة الحاسوبية أو على الشاشة) وتوضح ضرورة استخدامه في الأغراض البحثية فقط.
هذه هي الطريقة التي اتبعها الفريق مع لاما. ولكن، بعد إصداره بعدة أيام، نشر شخص مجهول النموذج الكامل مع تعليمات لتشغيله على منصة الإنترنت فور تشان (4chan). تقول بيناو: "أعتقد أننا حققنا التوازن الصحيح مع هذا النموذج بالتحديد. لكنني أشعر بخيبة الأمل من لجوء البعض إلى هذه الأفعال، لأنها تزيد من صعوبة نشر النماذج بهذه الطريقة".
وتضيف قائلة: "لطالما حصلنا على دعم قوي لهذه الطريقة من قيادة الشركة، وصولاً إلى مارك زوكربيرغ، ولكنها تتطلب الكثير، ولا يمكن تطبيقها بسهولة".
اقرأ أيضاً: هل يساعد الذكاء الاصطناعي في كشف المحتوى السيئ؟
ثمة الكثير من الجوانب على المحك بالنسبة لقسم الذكاء الاصطناعي في ميتا. تقول بيناو: "عند اتخاذ خطوات يمكن أن تؤدي إلى عواقب وخيمة، تتحمل الشركات الناشئة الصغيرة للغاية مسؤولية أقل بكثير بالمقارنة مع الشركات الكبيرة للغاية. حالياً، نعمل على إطلاق هذه النماذج للآلاف من الأفراد، ولكن إذا وجدنا أنها يمكن أن تتسبب بالمزيد من المشاكل، أو شعرنا بازدياد في المخاطر الأمنية، فسوف نوقف هذا التوجه، ونقتصر في النشر على الشركاء الأكاديميين المعروفين لدينا من ذوي المؤهلات الراسخة، وفي إطار اتفاقيات للسرية وعدم التصريح لمنعهم من بناء أي شيء باستخدام النموذج، حتى لو كان للأغراض البحثية فقط".
إذا حدث هذا الأمر، فقد تجد الكثير من الجهات المعروفة في بيئة البرمجيات المفتوحة المصدر أن رخصتها للبناء على أساس النماذج المستقبلية لقسم الذكاء الاصطناعي في ميتا أصبحت منتهية المفعول. ومن دون لاما، فسوف تتعرض مجموعة من النماذج المفتوحة المصدر، مثل ألباكا وأوبن أسيستانت وهاغينغ تشات، إلى انخفاض في فعاليتها وجودة نتائجها. ولن يحصل الجيل المقبل من مبتكري البرمجيات المفتوحة المصدر على العون الذي حصل عليه الجيل الحالي.
اقرأ أيضاً: ريترو: نموذج لغوي جديد من ديب مايند يستطيع التفوق على نماذج تفوقه حجماً
في الميزان
يُجري آخرون أيضاً مقارنة بين مخاطر وفوائد طريقة المصدر المفتوح المتاح للجميع مجاناً.
ففي فترة قريبة من إصدار قسم الذكاء الاصطناعي في ميتا لنموذج لاما، أطلقت هاغينغ فيس آلية تسجيل تتيح للجميع طلب الوصول -والحصول على الموافقة- قبل تنزيل أي من النماذج الكثيرة الموجودة على منصة الشركة. تكمن الفكرة في حصر الوصول إلى النماذج بالأشخاص الذين يمتلكون سبباً مقنعاً –وفقاً لهاغينغ فيس- لطلب الحصول على النموذج.
تقول الرئيسة التنفيذية للأخلاقيات في هاغينغ فيس، مارغريت ميتشل: "أنا لست متعصبة للمصدر المفتوح، وأستطيع أن أرى صواب الأسباب التي تدعو إلى جعله مغلقاً".
تشير ميتشل إلى المواد الإباحية التي تُنتَج دون موافقة الأشخاص على أنها تقدم مثالاً على سلبيات جعل النماذج القوية متاحة على نطاق واسع. وتقول إن إنتاج هذه المواد يمثل أحد الاستخدامات الرئيسية لأنظمة الذكاء الاصطناعي المخصصة لتركيب الصور.
كانت ميتشل تعمل في جوجل، وأسهمت في تأسيس فريق أخلاقيات الذكاء الاصطناعي فيها، وهي تدرك التجاذبات التي تؤثر على هذه المسألة. وتفضل ميتشل التوجه الذي تسميه "فتح المجال أمام الجميع الخاضع للمسؤولية"، وهو أسلوب مماثل لأسلوب مختبر الذكاء الاصطناعي في ميتا، إذ ينشر النماذج على نحو موجه وفقاً لاحتمال تسببها بالأذى أو إساءة استخدامها. تقول ميتشل: "أكنّ الكثير من التقدير لمُثُل العمل المفتوح المصدر، ولكنني أعتقد أن وجود آليات للمحاسبة والمسؤولية أمر مفيد".
يبدو أن أوبن أيه آي قررت أيضاً إيقاف العمل المفتوح المصدر. فمنذ فترة وجيزة، عندما أعلنت عن جي بي تي 4، وهو الإصدار الأحدث من نموذجها اللغوي الكبير الذي يعتمد عليه تشات جي بي تي، ظهرت جملة لافتة في التقرير التقني: "نظراً للمشهد التنافسي الحالي، ومشاكل الأمن المتعلقة بالنماذج الضخمة مثل جي بي تي 4، فإن هذا التقرير لا يحتوي على أي تفاصيل إضافية حول البنية (بما في ذلك حجم النموذج)، أو التجهيزات، أو عمليات التدريب وحساباته، أو بنية مجموعة البيانات، أو طريقة التدريب، أو أي تفاصيل أخرى مماثلة".
تُعزى هذه القيود الجديدة، جزئياً، إلى تحول أوبن أيه آي إلى شركة ربحية تتنافس مع شركات أخرى مثل جوجل. ولكنها تعكس أيضاً تغيراً في عقلية الشركة. ففي مقابلة مع منصة ذا فيرج (The Verge)، قال أحد مؤسسي الشركة وكبير علمائها، إيليا سوتسكيفر، إن انفتاح الشركة في الماضي لم يكن أمراً صائباً.
اقرأ أيضاً: أوبن أيه آي تطرح مليون نسخة من نموذجها اللغوي دال إي في الأسواق
ولا شك في أن أوبن أيه آي غيرت استراتيجياتها بالكامل فيما يتعلق بمعايير الأمان والمشاركة مع العامة، كما تقول باحثة السياسات في أوبن أيه آي، سانديني أغراوال: "سابقاً، كانت المشاريع المفتوحة المصدر تثير اهتمام مجموعة صغيرة من الباحثين والدارسين. أما الآن، فقد تغير المشهد بالكامل. ويمكن للمشاريع المفتوحة المصدر أن تؤدي إلى تسريع هائل في عمليات التطوير، وأن تشعل المنافسة إلى درجة التهور فيما يشبه السباق نحو الهاوية".
لكن الوضع لم يكن هكذا على الدوام. فلو كانت أوبن أيه آي تفكر بهذه الطريقة منذ ثلاث سنوات عندما نشرت التفاصيل المتعلقة بجي بي تي 3، لما ظهرت إليوثر أيه آي إلى الوجود.
واليوم، تؤدي إليوثر أيه آي دوراً محورياً في بيئة المشاريع المفتوحة المصدر. فمنذ ظهورها، صممت عدة نماذج لغوية كبيرة، واستُخدمت مجموعة البيانات "بايل" في تدريب العديد من المشاريع المفتوحة المصدر، بما فيها ستيبل إل إم من ستابيليتي أيه آي (من الجدير بالذكر أن مشتاق عضو في مجلس إدارة إليوثر إيه آي).
لو أن أوبن أيه آي قللت من حجم المعلومات التي أفصحت عنها، لما تحقق أي من هذه الإنجازات. على غرار قسم الذكاء الاصطناعي في ميتا، تدعم إليوثر أيه آي الكثير من الابتكارات المفتوحة المصدر.
إلا أنه مع إغلاق جي بي تي 4 -و 5 و6 أيضاً- فإن التقدم سيصبح محصوراً، مرة أخرى، ببضع شركات ضخمة، أما جمهور البرمجيات المفتوحة المصدر فسيبقى مراوحاً في مكانه. قد يتمكن باحثو البرمجيات المفتوحة المصدر من إنتاج إصدارات جديدة وغريبة، بل وحتى منافسة لبعض منتجات جوجل. ولكنهم سيبقون عالقين مع النماذج القديمة. أما التقدم الحقيقي، والخطوات الكبرى التالية، فهي جوانب سيجري العمل عليها خلف الأبواب المغلقة.
اقرأ أيضاً: مختبر أوبن إيه آي يمنح مايكروسوفت حقَّ الوصول الحصري إلى نموذجه اللغوي جي بي تي 3
ولكن، هل هذا مهم؟ إن نظرتنا إلى تأثير لجوء الشركات التكنولوجية الكبيرة إلى منع الوصول إلى هذه التقنيات، وأثر ذلك على المشاريع المفتوحة المصدر، تعتمد كثيراً على نظرتنا إلى كيفية صنع الذكاء الاصطناعي والجهات التي يجب أن تتولى صنعه.
يقول غافي: "من المرجح أن الذكاء الاصطناعي سيصبح أحد العوامل المؤثرة على طريقة تنظيم المجتمع لنفسه في العقود المقبلة. وأعتقد أن وجود نظام أوسع من إجراءات التدقيق والشفافية أفضل من تركيز النفوذ في أيدي قلة من الشركات".
توافق بايدرمان على هذا الرأي، وتقول: "لا أعتقد قطعاً بوجود ضرورة أخلاقية تدعو الجميع إلى العمل وفق نهج المصدر المفتوح. ولكن، في نهاية المطاف، من المهم للغاية وجود أشخاص يطورون هذه التكنولوجيا ويجرون الأبحاث عليها دون أن يكون لديهم مصلحة في تحقيقها للنجاح التجاري".
من ناحية أخرى، تزعم أوبن أيه آي أنها تلزم جانب الحذر فقط. يقول مدير فرق الثقة والسلامة في أوبن أيه آي، ديف ويلنر: "نحن لسنا من المعارضين للشفافية، ولكننا نحاول إيجاد طريقة لتحقيق التوافق بين الشفافية والسلامة. ومع تزايد قدرات هذه التكنولوجيات، سيظهر شيء من التضارب بين هاتين الناحيتين عملياً.
لقد وُضِعَ الكثير من المعايير وأساليب التفكير بالذكاء الاصطناعي من قبل أوساط الأبحاث الأكاديمية، التي تقدّر التعاون والشفافية، بحيث يتمكن الجميع من البناء على أساس أعمال بعضهم بعضاً. وربما أصبح من الضروري تغيير هذا الأسلوب بعض الشيء مع تطور هذه التكنولوجيا".