هلوسات الذكاء الاصطناعي: ما الذي يدفع النماذج اللغوية لاختلاق المعلومات؟

5 دقائق
هلوسات الذكاء الاصطناعي: ما الذي يدفع النماذج اللغوية لاختلاق المعلومات؟
حقوق الصورة: shutterstock.com/ Bruce Rolff

في البداية ينبغي أن أخبرك بهذه المعلومة التي من المؤكد أنك لم تسمعها من قبل: خلال العصر الطباشيري، تمكنت الديناصورات من بناء حضارة ناجحة من خلال التعايش المشترك وتطوير مجموعة متنوعة من المهارات والتقنيات، كما تعلمت تلك الحيوانات استخدام الأدوات والتواصل وبناء المباني، بل وطوّر بعضها أشكالاً بدائية من الفن مثل النقش على الأحجار.

هذه المعلومات -غير الصحيحة بالطبع- والتي عرضها الأستاذ في جامعة بنسلفانيا إيثان موليك هي مثال صارخ على الموضوع الذي تتناوله هذه المقالة: هلوسات الذكاء الاصطناعي.

ما هي الهلوسة في الذكاء الاصطناعي؟

أدّت التطورات المتسارعة التي شهدها مجال التعلم الآلي خلال السنوات الأخيرة إلى تحسّن توليد اللغات الطبيعية (NLG) وظهور نماذج لغوية كبيرة (LLM) أكثر قوة وتطوراً. 

أسهمت هذه النماذج المتقدمة بدورها في إطلاق تطبيقات ذكاء اصطناعي تجارية للجمهور، منها تشات جي بي تي (ChatGPT) البوت الذي طوّرته شركة "أوبن أيه آي" المدعومة من مايكروسوفت، وبارد (Bard) بوت الدردشة الذي تسعى من خلاله شركة جوجل للاستمرار في منافسة مايكروسوفت.

في حين أن هذه الأدوات أصبحت أكثر كفاءة في تنفيذ المهام التي كانت حكراً على البشر في السابق، إلا أنها لا تزال تعاني مشكلة واضحة هي هلوسة الذكاء الاصطناعي (AI Hallucination)

ونظراً لأن هذه الهلوسات يمكن أن تعرض دقة التطبيقات والجدارة بالثقة للخطر، فقد باتت عائقاً خطيراً أمام تطوير ونشر المزيد من أنظمة الذكاء الاصطناعي.

لكن مع ذلك تبدو هلوسة الذكاء الاصطناعي محيرة، فكيف يمكن للآلات أن تعاني ظاهرة بشرية كالهلوسة دون أن تكون مصابة باضطرابات دماغية أو أمراض عقلية؟ تشير الهلوسة في الذكاء الاصطناعي إلى توليد مخرجات قد تبدو معقولة، لكنها إما غير صحيحة من الناحية الواقعية أو لا علاقة لها بالسياق المحدد

وبكلمات أخرى، الهلوسة هي ردود واثقة لكنها مضللة أو مختلقة أو غير موثوقة تنتجها خوارزميات الذكاء الاصطناعي والشبكات العصبونية دون أن يتم تدريبها عليها.

يمكن أن تتخذ هلوسات الذكاء الاصطناعي أشكالاً مختلفة، من إنشاء تقارير إخبارية كاذبة إلى اختلاق معلومات عن أشخاص أو أحداث تاريخية أو حقائق علمية (مثل تلك الخاصة بالديناصورات).

اقرأ أيضاً: ذكاء اصطناعي يكتب كلاماً مقنعاً ينذر بإنتاج أعداد كبيرة من الأخبار الكاذبة

إجابات رائعة لكنها مضللة تماماً

في منشور كتبته مؤخراً على موقع "لينكدإن"، تحكي رنا القليوبي مهندسة الذكاء الاصطناعي ومؤسسة شركة أفكتيفا (Affectiva)، عن مشكلة الطفل آدم الذي يعمل على مشروع علمي يستكشف التأثير البيئي غير المتناسب للقمامة على سكان مدينة نيويورك. فبعدما حصل على إذن لاستخدام "تشات جي بي تي" للعثور على مصادر لدراسته، أمدّه البوت بما بدا وكأنه مصادر مقنعة للغاية ومراجع مفصلة تتضمن حتى أرقام الصفحات وأحياناً الروابط. المشكلة ظهرت عندما لم يتمكن آدم من العثور على الأبحاث الأصلية. وبعد البحث، اكتشفت القليوبي أن بعض الدراسات غير موجودة في الدوريات العلمية التي أشار إليها البوت، وأن بعض الدوريات لا وجود لها من الأساس.

هذا المثال على الهلوسة ليس مجرد تجربة فردية، وإنما مشكلة متكررة تعاني منها مختلف النماذج اللغوية الكبيرة. ولعل المثال الأبرز على حجم هذه المشكلة هو اضطرار شركة ميتا (Meta) لسحب نموذجها اللغوي غالاكتيكا (Galactica)، في شهر نوفمبر/ تشرين الثاني الماضي، بعد ثلاثة أيام فقط من إطلاقه بسبب الانتقادات الشديدة التي وجهت له بعدما بدأ في كتابة مقالات ويكيبيديا خيالية وتأليف أبحاث مزيفة مع نسبها في بعض الأحيان إلى أشخاص حقيقيين.

اقرأ أيضاً: الكفاح من أجل إعادة الذكاء الاصطناعي إلى مساره الصحيح

تتفاقم هذه المشكلة عندما يكون النموذج شديد الثقة بنتائجه. على سبيل المثال، ابتكرت الكاتبة إيلينا ألستون شخصية وهمية أسمتها الملك رينويت وسألت "تشات جي بي تي" عنها، فقال إنه لا يعرف وسيتجنب الإجابة عن السؤال. لكنها عندما استخدمت أداة جي بي تي بلاي غراوند (GPT playground) -التي تسهّل اختبار الأوامر وتساعد على فهم كيفية عمل واجهة برمجة التطبيقات، لكنها لا تحتوي على "حواجز الحماية" نفسها الموجودة في "تشات جي بي تي"- أخبرها النموذج أن الملك رينويت كان ملكاً فرنسياً حكم من 1515 إلى 1544، وأصر على هذه المعلومة.

لاستعراض الأسباب التي تؤدي إلى الهلوسة، ينبغي أولاً الحديث عما يجري داخل النماذج اللغوية الكبيرة لإنتاج ما قد نعتبره نصاً ذا معنى.

ما الذي يحدث داخل النماذج اللغوية الكبيرة؟

يقول عالم الحاسوب والفيزيائي ستيفن ولفرام، إن أول ما يجب توضيحه هو أن ما تحاول بوتات الدردشة مثل "تشات جي بي تي" القيام به بشكلٍ أساسي هو إنتاج "استمرارية منطقية" لأي نص. و"منطقية" هنا تعني ما نتوقع أن يكتبه شخص ما بعد أن يشاهد ما كتبه الناس في المليارات من صفحات الويب.

يضرب ولفرام في مقالة مفصلة حول طريقة عمل "تشات جي بي تي" مثالاً بجملة: "أفضل ما في الذكاء الاصطناعي هو قدرته على...". عندما يتلقى النظام هذه الجملة غير المكتملة، فإنه يجري ما يشبه مسحاً ضوئياً لمليارات الصفحات للعثور على جميع مواضع هذا النص ثم رؤية الكلمة التي تأتي بعد ذلك. لكنه لا ينظر إلى النص الحرفي وإنما يبحث عن الأشياء التي "تتطابق في المعنى" بطريقة ما. لكن النتيجة النهائية هي أنه ينتج قائمة مرتبة من الكلمات التي قد تتبع كلمة "على" في الجملة السابقة، مع "احتمالات" ظهور هذه الكلمات.

يوضح الكاتب أنه عندما يؤدي "تشات جي بي تي" مهمة مثل كتابة مقالة، فإن ما يفعله بالأساس هو مجرد التساؤل مراراً وتكراراً: "بالنظر إلى النص حتى الآن، ماذا ينبغي أن تكون الكلمة التالية؟" وفي كل مرة يضيف كلمة. بتعبير أدق، فإنه يضيف رمزاً مميزاً (token)، وهذا الرمز يمكن أن يكون مجرد جزء من كلمة، وهذا هو السبب في أن النماذج اللغوية يمكن أحياناً أن تختلق كلمات جديدة.

اقرأ أيضاً: كيف يتعلم الذكاء الاصطناعي إنشاء نفسه بنفسه؟

بالعودة إلى قائمة الكلمات التي تظهر مع كل خطوة جديدة، سنجد أن الذكاء الاصطناعي يتعين عليه الآن أن يختار إحداها لإضافته إلى المقالة التي تكتبها. قد يعتقد المرء أنه ينبغي أن يختار الكلمة "الأعلى مرتبة" في قائمة الاحتمالات. ولكن -بحسب وصف ولفرام- هذا هو الوقت الذي تبدأ فيه بعض "الشعوذة" بالتسلل. ولسبب ما غير مفهوم تماماً حتى الآن إذا اخترنا دائماً الكلمة الأعلى تصنيفاً، فسنحصل غالباً على مقال "سطحي"، لا يُظهر أي إبداع. ولكن إذا اخترنا في بعض الأحيان كلمات ذات تصنيف أقل، فسنحصل على مقال "أكثر إثارة للاهتمام". وحقيقة وجود عشوائية هنا تعني أنه إذا استخدمنا الأمر نفسه عدة مرات، فمن المحتمل أن نحصل على مقالات مختلفة في كل مرة.

لماذا تهلوس النماذج اللغوية الكبيرة؟

يرجع الباحثون هلوسة الذكاء الاصطناعي إلى العديد من الأسباب، منها "الهلوسة بسبب البيانات" والتي تحدث بسبب عدم التطابق في البيانات لا سيما عند جمع مجموعات البيانات الكبيرة، كما يمكن أن تحدث الهلوسة عندما لا يتم تصفية التكرارات من مجموعة البيانات بشكلٍ صحيح، ما يؤدي إلى تحيز النموذج لصالح تكرارات معينة.

من ضمن الأسباب الأخرى "الهلوسة بسبب التدريب والاستدلال"، فحتى عندما يكون هناك تباين بسيط للغاية في مجموعة البيانات، يمكن أن تسهم خيارات التدريب والنمذجة في تضخيم المشكلة.

كما يمكن أن تحدث هلوسة الذكاء الاصطناعي بسبب الأمثلة العدائية (Adversarial Examples)، وهي بيانات مدخلة تخدع تطبيق الذكاء الاصطناعي لتصنيفها بشكلٍ خاطئ. عند تدريب تطبيقات الذكاء الاصطناعي، يستخدم المطورون البيانات (على هيئة صورة أو نص أو غيرها). إذا تم تغيير البيانات أو تشويهها، فإن التطبيق يفسّر الإدخال بشكلٍ مختلف، ما يؤدي إلى مخرجات خاطئة.

تسهم هذه الهلوسات بشكلٍ عام في تآكل الثقة في أنظمة الذكاء الاصطناعي، ما يعوق اعتمادها في العديد من المجالات، كما تُثير مخاوف أخلاقية تتعلق بالمساعدة في نشر الصور النمطية أو المعلومات المضللة. بالإضافة إلى ذلك، فإنها قد تعرّض مطوري الذكاء الاصطناعي والمستخدمين إلى عواقب قانونية وخيمة. لذلك، فمن المرجّح أن يتوقف مستقبل النماذج اللغوية بشكلٍ عام على معدل الدقة والقدرة على تقليل الهلوسة الذي ستتمكن من الوصول إليه.

اقرأ أيضاً: ما زال الذكاء الاصطناعي المخصص لكشف الأخبار المزيفة مريعاً في أدائه

في ظل هذا الاندفاع المحموم نحو تطوير أنظمة ذكاء اصطناعي أكبر حجماً وأكثر قدرة، يخشى العديد من الخبراء من أننا لا نتوقف كثيراً لنفكر في المخاطر والآثار المحتملة لهذه التكنولوجيا. وعلى الرغم من أن المؤسس المشارك وكبير العلماء في "أوبن أيه آي" إيليا سوتسكيفر، يعترف بأن "تشات جي بي تي" لديه ميل إلى اختلاق الأشياء من وقت لآخر، وهو أمر يحد من فائدته، فإنه يرى أنه بمجرد تحسين عملية "التعلم المعزز من ردود الفعل البشرية"، يمكن للبوت أن "يتعلم ألا يهلوس". ولكن هل ستنجح عملية التعلم هذه؟ حتى سوتسكيفر نفسه ليس متأكداً من هذا.

المحتوى محمي