أوتو جي بي تي (Auto-GPT) هو نظام ذكاء اصطناعي يستخدم قدرات النموذج اللغوي جي بي تي-4 (GPT-4)، المشغّل لبوت تشات جي بي تي (ChatGPT)، لكنه ذاتي التحكم (Autonomous)؛ أي أنه يمتلك القدرة على البحث عن الحلول ذاتياً، كل ما عليك فعله هو إدخال الهدف النهائي لما تريده، مثل بناء تطبيق أو شراء سلعة من أمازون أو وضع خطة تسويقية لمنتج معين، ليقوم النظام بتلقين نفسه الأوامر اللازمة لبلوغ هذا الهدف دون تدخل إضافي منك.
يتميز نظام أوتو جي بي تي أيضاً عن تشات جي بي تي بإمكانية الوصول إلى الإنترنت ليستخدم أحدث المعلومات ذات الصلة بالهدف المطلوب إنجازه. علاوة على ذلك، يقوم بتقييم كل نتيجة يصل إليها ليحدد ما إذا كانت مناسبة أو يعيد تكرار تنفيذ المهمة بطريقة أخرى.
يمكنك تجربة أحد أشكال هذا النظام في هذا الموقع أو هنا أو هنا.
مع تشات جي بي تي، كان على المستخدم أن يتقن كيفية صياغة كل أمر بعناية، وأن يدخل سلسلة، قد تكون طويلة، من الإيعازات لتحقيق غايته النهائية. أما الآن مع هذا النوع الجديد من أنظمة الذكاء الاصطناعي، فكل ما عليك فعله هو تقديم أمر واحد أو عدد محدود من الأوامر ليقوم النظام بكامل المهمة.
اقرأ أيضاً: هل تفوق تشات جي بي تي على سيري وأليكسا؟
ما قصة تطوير Auto-GPT وما المهام التي (لا) يستطيع إنجازها؟
تم تطوير أوتو جي بي تي من قبل توران بروس ريتشاردز المعروف باسم (Significant Gravitas). وقد قال ريتشاردز في مقابلة مع منصة فايس، إنه كان يرغب في أن يقوم نظام ذكاء اصطناعي بتزويده بتحديثات يومية حول أخبار هذه التكنولوجيا، لكنه في خضم العملية، أدرك أن النماذج اللغوية الكبيرة تواجه صعوبة في تنفيذ المهام التي تتطلب تخطيطاً طويل الأمد، ولا تستطيع تحسين مخرجاتها بناء على توجيهات المستخدم في الوقت الحقيقي، وهذا ما أوحى له بفكرة إنشاء أوتو جي بي تي.
وبحسب ما جاء في صفحة النظام على غيت هاب، فإن أوتو جي بي تي (Auto-GPT) هو نظام تجريبي مفتوح المصدر يتمتع بإمكانية الوصول إلى الإنترنت لإجراء "عمليات البحث وجمع المعلومات"، ويستطيع تخزين المعلومات في ذاكرته الطويلة والقصيرة الأمد ما يسمح له بتذكر الأوامر السابقة والاعتماد عليها في توليد الأوامر التالية وتصحيحها ذاتياً وبشكلٍ متكرر. ويعتمد على نموذج جي بي تي-4 في توليد الإجابات، وعلى نموذج جي بي تي-3.5 في تلخيص الملفات وتخزينها. وتذكر الصفحة أن هذا النظام "يوسّع حدود إمكانات الذكاء الاصطناعي".
على سبيل المثال، يستطيع النظام إجراء دراسة للسوق والشركات المنافسة في مجال معين، والبحث عن عملاء محتملين، وبناء وتصميم تطبيق، والاطلاع على أحدث المعلومات حول موضوع معين وإعداد بودكاست حوله، وحتى طلب وجبة بيتزا أو حجز رحلة طيران.
اقرأ أيضاً: تشات جي بي تي يهدد 19% من وظائف البشر
ليس ذكاءً اصطناعياً عاماً بل ذكاء اصطناعي ذاتي التحكم
وعلى الرغم من أن اسم هذا النظام هو أوتو جي بي تي، لكنه مثال فقط من فئة واسعة من التطبيقات ذاتية التحكم والقائمة على جي بي تي-4 والتي يتم تطوير العديد منها يومياً محدّثة ضجة كبيرة على وسائل التواصل الاجتماعي. توفّر هذه التطبيقات طبقة إضافية أو واجهة، فوق نموذج جي بي تي-4 لتسهّل استخدامه وتوفّر استفادة أكبر من إمكاناته.
على سبيل المثال، تم تطوير نظام بيبي أيه جي آي (BabyAGI) من قِبل المطور يوهي ناكاجيما، ويصفه بأنه وكيل ذكاء اصطناعي ذاتي التحكم يمتلك قدرات إدارة مهام. ويقول إنه كان يسعى في البداية إلى تطوير وكيل لأتمتة بعض المهام الروتينية، وانتهى به المطاف بكتابة كود مؤلف من 105 تعليمات فقط يعتمد على جي بي تي-4 في أتمتة المهام.
ولو تذكرنا أن تشات جي بي تي قد تم إطلاقه منذ أقل من 6 أشهر فقط، وأن الأنظمة ذاتية التحكم آنفة الذكر قد تم تطويرها منذ أقل من شهر، لفهمنا سبب كل هذا الضجيج الإعلامي والشعور بالدهشة وربما بالخوف من أن الوصول إلى الذكاء الاصطناعي العام قد لا يستغرق وقتاً طويلاً، وهي مرحلة تتمتع فيها أنظمة الذكاء الاصطناعي بالقدرة على العمل من تلقاء ذاتها دون الحاجة إلى "مدخلات" بشرية أو تدخل من المستخدم.
اقرأ أيضاً: ما دور القوى العاملة البشرية في طفرة الذكاء الاصطناعي؟
تحذيرات من عدم موثوقية هذه الأنظمة
لكن جيم فان، عالم الذكاء الاصطناعي في شركة إنفيديا، يرى أن جميع هذه الأنظمة ذاتية التحكم ليست منتجات كاملة، بل هي مجرد محاولات تجريبية. وحذّر فان في سلسلة تغريدات من الانخداع بالضجة الإعلامية بشأنها، وقال إن إوتو جي بي تي يستطيع إنجاز بعض المهام المحددة بشكلٍ واضح، لكنه غير موثوق في معظم الأحيان عند تنفيذ مهام أكثر صعوبة. ويرجع فان مشكلة الموثوقية إلى المحدودية والمشكلات المعروفة في الأنظمة اللغوية الكبيرة مثل جي بي تي-4، وبالتالي لا يمكن التعامل مع هذه المحدودية من خلال تبسيط عملية إدخال الأوامر، بل لا بُدّ من التعامل معها على مستوى النماذج اللغوية الكبيرة نفسها.
وهذا ما تؤكده دراسة حديثة أعدها صاموئيل بومان، الباحث في مجال الذكاء الاصطناعي بجامعة نيويورك، بعنوان "8 أشياء يجب معرفتها عن النماذج اللغوية الكبيرة"، يشير فيها الباحث إلى أن الاهتمام الكبير حالياً بهذه النماذج قد يغفل عدة نقاط أهمها أن الباحثين لا يستطيعون حتى الآن تقديم فهم كامل حول آلية العمل الداخلية لهذه النماذج، وأنه من الصعب توجيه سلوك هذه النماذج مثلاً لتجنب إنتاج المحتوى المؤذي، وأن أداء الإنسان لا يمثّل سقف قدرات هذه النماذج، بمعنى أنها قادرة على تجاوز قدرات الإنسان في بعض المهام مثل حل المسائل الرياضية والتنبؤ بأحداث مستقبلية، وأنها غير مقيدة بالالتزام بقيم البشر الذين طوّروها.
اقرأ أيضاً: لم يأتِ من العدم: كيف حقق تشات جي بي تي انتشاره الواسع؟
لعل هذه "الأشياء" هي ما أدّت إلى ظهور العديد من الأصوات التي تحذّر من تأثير تقدم هذه النماذج على الحضارة البشرية مستقبلاً، حيث وقّع الآلاف من خبراء الذكاء الاصطناعي وبعض الشخصيات المؤثرة في مجال التكنولوجيا، أبرزهم إيلون ماسك، على عريضة مفتوحة تدعو للتوقف لفترة مؤقتة عن تطوير أنظمة الذكاء الاصطناعي القوي، لمنح الصناعة الوقت اللازم لوضع معايير السلامة وتجنب الأضرار المحتملة لتقنيات الذكاء الاصطناعي الأكثر خطورة.