قبل أن تطلق شركة أوبن أيه آي النموذج اللغوي الكبير جي بي تي 5 (GPT-5) في 5 أغسطس/آب، قال الرئيس التنفيذي سام ألتمان إن قدراته جعلته يشعر بأنه "عديم الفائدة مقارنة بالذكاء الاصطناعي" وأضاف أن العمل عليه يمثل عبئاً ثقيلاً يتخيل أن مطوري القنبلة الذرية لا بد أنهم شعروا به.
ومع ميل عمالقة التكنولوجيا إلى التوجه نحو النماذج التي تفعل الشيء نفسه إلى حد ما، كان من المفترض أن يعطي عرض أوبن أيه آي الجديد لمحة عن أحدث آفاق الذكاء الاصطناعي. كان من المفترض أن يمثل قفزة نحو "الذكاء الاصطناعي العام" الذي وعد المبشرون بالتكنولوجيا بأنه سيحسن حياة البشرية.
وخلافاً لتلك التوقعات، كان النموذج مخيباً للآمال إلى حد كبير.
أخطاء فادحة في ردود جي بي تي 5
سلط الناس الضوء على أخطاء فادحة في ردود جي بي تي 5، مناقضين بذلك ادعاء ألتمان الذي أدلى به عند إطلاقه بأنه يعمل مثل "خبير مؤهل حاصل على درجة الدكتوراة في أي مجال تحتاج إليه عند الطلب". كما اكتشف المختبرون الأوائل أيضاً أن ثمة مشاكل تعتور وعد أوبن أيه آي بأن جي بي تي 5 يحدد تلقائياً نوع نموذج الذكاء الاصطناعي الأنسب لسؤالك، هل هو نموذج يتمتع بالتفكير المنطقي يلائم الاستفسارات الأكثر تعقيداً، أم نموذج أسرع يلائم الاستفسارات الأبسط؟ يبدو أن ألتمان قد أقر بأن ثمة عيوباً في هذه الميزة، وبأنها تسلب المستخدم التحكم. ومع ذلك، ثمة جانب إيجابي أيضاً: يبدو أن النموذج قد خفف مشكلة تملق تشات جي بي تي للمستخدمين، حيث قل احتمال إغداق جي بي تي 5 عليهم بالإطراءات المبالغ فيها.
اقرأ أيضاً: تعرف إلى وكيل تشات جي بي تي الجديد لتنفيذ المهام نيابة عنك
عموماً، كما أشارت زميلتي غريس هوكينز، يمثل الإصدار الجديد تحديثاً للمنتج -إذ يوفر طرقاً أسلس وأجمل للتخاطب مع تشات جي بي تي- أكثر منه إنجازاً غير مسبوق يرسم حدوداً جديدة لقدرات الذكاء الاصطناعي.
من التخصص إلى توسيع نطاق استخدام النماذج
لكن ثمة درساً آخر يمكن استخلاصه من هذا كله. فترة من الوقت، لم تبذل شركات الذكاء الاصطناعي جهداً يذكر لاقتراح كيفية استخدام نماذجها. بدلاً من ذلك، كانت الخطة ببساطة هي بناء أذكى نموذج ممكن -دماغ من نوع ما- والثقة في أنه سيتقن الكثير من المهام. سيكون نظم الشعر عملاً بديهياً كحل مسائل الكيمياء العضوية. وسيتحقق ذلك من خلال نماذج أكبر، وتقنيات تدريب أفضل، واكتشافات تقنية متقدمة.
لقد تغير ذلك: فالهدف الآن هو توسيع نطاق النماذج الحالية من خلال الترويج لتطبيقات محددة. على سبيل المثال، أصبحت الشركات أكثر جرأة في وعودها بأن نماذج الذكاء الاصطناعي الخاصة بها يمكن أن تحل محل المبرمجين البشريين (حتى لو كانت الأدلة الأولية تشير إلى خلاف ذلك). أحد التفسيرات المحتملة لهذا التحول هو أن شركات التكنولوجيا العملاقة لم تحقق الإنجازات التي توقعتها. قد نضطر في الوقت الحالي إلى تحسينات طفيفة فقط في قدرات النماذج اللغوية الكبيرة. وهذا يترك شركات الذكاء الاصطناعي أمام خيار واحد: العمل بما لديها من إمكانات.
وأبلغ مثال على ذلك في إطلاق جي بي تي 5 هو مدى تشجيع أوبن أيه آي للناس على استخدامه للحصول على المشورة الصحية، وهو أحد أكثر مجالات الذكاء الاصطناعي خطورة.
في البداية، لم تكن أوبن أيه آي تراعي في الغالب الأسئلة الطبية. فإذا حاولت أن تسأل تشات جي بي تي عن صحتك، كان يعطيك الكثير من التنبيهات التي تحذرك من أنه ليس طبيباً، وفي بعض الأسئلة، كان يرفض الإجابة على الإطلاق. ولكن كما ذكرت مؤخراً، بدأت هذه التنبيهات تختفي مع إصدار أوبن أيه آي نماذج جديدة. لن تقتصر نماذجها الآن على تفسير الأشعة السينية وصور الثدي الشعاعية فحسب، بل ستطرح عليك أسئلة متابعة تفضي إلى التشخيص.
اقرأ أيضاً: هل اقتربت شركة أوبن أيه آي من تطوير الذكاء الاصطناعي العام؟
من الإجابة عن التساؤلات إلى التشخيص الطبي: هل بدأت مرحلة الخطر؟
في مايو/أيار، أشارت أوبن أيه آي إلى أنها ستسعى إلى معالجة الأسئلة الطبية بصورة مباشرة. فقد أعلنت عن إصدار مقياس معياري باسم "هيلث بينش" (HealthBench)، وهو طريقة لتقييم مدى جودة أنظمة الذكاء الاصطناعي في التعامل مع الموضوعات الصحية مقارنة بآراء الأطباء. وفي يوليو/تموز، نشرت الشركة دراسة شاركت فيها، أفادت بأن مجموعة من الأطباء في كينيا ارتكبوا أخطاء تشخيصية أقل عندما استعانوا بنموذج الذكاء الاصطناعي.
مع إطلاق النموذج جي بي تي 5، بدأت أوبن أيه آي توجه الناس صراحة لاستخدام نماذجها للحصول على المشورة الصحية. وفي فعالية الإطلاق، رحب ألتمان على المنصة بأحد موظفي أوبن أيه آي، فيليبي ميلون، وزوجته كارولينا ميلون التي شخصت مؤخراً بأنواع متعددة من السرطان. وتحدثت كارولينا عن طلبها من تشات جي بي تي المساعدة على تشخيص حالتها، قائلة إنها حملت نسخاً من نتائج خزعة نسيجها إلى تشات جي بي تي لترجمة المصطلحات الطبية وطلبت من الذكاء الاصطناعي المساعدة على اتخاذ قرارات بشأن أمور مثل متابعة العلاج الإشعاعي من عدمه. وقد وصف الثلاثي ذلك بأنه مثال تمكيني لتقليص الفجوة المعرفية بين الأطباء والمرضى.
مع هذا التغيير في النهج، تخوض أوبن أيه آي مزالق خطرة.
مزالق خطرة
أولاً، يعتمد هذا النهج على أدلة تشير إلى إمكانية استفادة الأطباء من الذكاء الاصطناعي بصفته أداة سريرية، كما هو الحال في دراسة كينيا، ليقترحوا أن الأشخاص الذين ليس لديهم أي خلفية طبية يجب أن يطلبوا من نموذج الذكاء الاصطناعي المشورة بشأن صحتهم. تكمن المشكلة في أن الكثير من الأشخاص قد يطلبون هذه المشورة دون عرضها على طبيب (ومن غير المرجح أن يفعلوا ذلك الآن، إذ أصبح من النادر أن يطلب منهم بوت الدردشة ذلك).
في الواقع، قبل يومين من إطلاق جي بي تي 5، نشرت مجلة الطب الباطني ورقة بحثية عن رجل توقف عن تناول الملح وبدأ يتناول كميات خطيرة من البروميد بعد محادثة مع تشات جي بي تي. أصيب بتسمم البروميد -الذي اختفى إلى حد كبير في الولايات المتحدة بعد أن بدأت إدارة الغذاء والدواء الأميركية في الحد من استخدام البروميد في الأدوية التي لا تستلزم وصفة طبية في السبعينيات- ثم كاد يموت، حيث أمضى أسابيع في المستشفى.
إذاً ما الهدف من هذا كله؟ يتعلق الأمر في جوهره بالمساءلة. عندما تنتقل شركات الذكاء الاصطناعي من الوعد بالذكاء العام إلى تقديم مساعدة شبيهة بالذكاء البشري في مجال محدد مثل الرعاية الصحية، فإن ذلك يثير سؤالاً ثانياً ينتظر الإجابة حول ما سيحدث عند ارتكاب الأخطاء. في الوضع الراهن، لا يوجد ما يشير إلى أن شركات التكنولوجيا ستتحمل مسؤولة الضرر الناجم.
يقول الأستاذ المساعد في علوم البيانات والفلسفة في جامعة نورث كارولاينا في شارلوت، داميان ويليامز: "عندما يقدم لك الأطباء نصائح طبية ضارة نتيجة خطأ أو تحيز ضار، يمكنك مقاضاتهم بتهمة الإهمال الطبي والحصول على تعويض".
ويضيف: "عندما يقدم لك تشات جي بي تي نصيحة طبية ضارة لأنه تدرب على بيانات متحيزة، أو لأن ’الهلوسة‘ متأصلة في عمليات النظام، فما هو الحل الذي يمكنك اللجوء إليه؟"