لقد كنت أعرف مسبقاً –وهو أمر بديهي- أن قراءة نعوتي بنفسي ستكون أمراً مزعجاً. ولكن ما لم أتوقعه هو السبب في كونه مزعجاً للغاية.
لم يكن السبب طريقة موتي. وفي الواقع، ومهما حاولت، لم أتمكن من تحديد سبب الوفاة، فالنعوة لم تتضمن أي تفاصيل سوى أنني توفيت في شهر أبريل/ نيسان من العام المنصرم. (لم أستطع الحصول على أي نتيجة إضافية بسؤال الكاتب عن سبب وفاتي: "لم يتم نشر سبب وفاة تشارلز سيف")، كما لم أجد محاولة تلخيص كامل حياتي وشخصيتي بجملتين أمراً مزعجاً. بل شعرت حتى بشيء من الفكاهة في طريقة تحويل كامل تاريخي إلى جملة مبتذلة: ("ستبقى ذكرى تشارلز سيف حية بكل الحب لدى أصدقائه وعائلته لسرعة بديهته وذكائه وحماسه للحياة"). لم تكن المشكلة الحقيقية تتعلق بمحتوى النعوة بقدر ما كانت متعلقة بطريقة كتابة النعوة نفسها.
دافينشي-003 وأخواته
ونظراً للعناوين الصحافية التي رأيناها مؤخراً، فقد لا يكون من المفاجئ أن نعرف أن برنامجاً حاسوبياً هو كاتب هذه النعوة، وبالتحديد، دافينشي-003 (Davinci-003)، وهو أحد مولدات النصوص من شركة أوبن أيه آي (OpenAI). ومنذ أن أتاحت الشركة اللاربحية استخدام برنامجها تشات جي بي تي (ChatGPT) للعامة في أواخر نوفمبر/ تشرين الثاني، كانت وسائل الإعلام تعبّر عن إعجابها بقدرته على توليد نصوص تبدو من تأليف البشر. وعلى حين تم تصميم تشات جي بي تي للحوارات المتبادلة، فإن شقيقه دافينشي-003 مختص بتأليف النصوص. وقد وصلت براعة تشات جي بي تي وغيره من بوتات أوبن أيه آي إلى درجة دفعت ببعض الخبراء إلى إعادة النظر بجدوى كل شيء، بدءاً من محركات البحث وصولاً إلى وظائف المقالات للمدارس الثانوية.
إنه ضجيج إعلامي مبرر ومستحق. ففي تجربتي الأولى، طلبت من نظام الذكاء الاصطناعي كتابة قصيدة من نوع فيلانيل (قصيدة ثنائية القافية من خمسة مقاطع شعرية) –وهو نمط شعري صعب إلى حد ما- حول موت فأر صحراء أليف. وبالفعل، ومن دون أي شك، تمكن من تأليف القصيدة: "He was so loving and never did offend/ I’d give him treats and he’d squeak with joy/ And now I must find a way to mend." (لقد كان محباً للغاية ولم يسئ لأحد يوماً، وكنت أقدم له الطعام ويصدر أصواتاً تعبّر عن الفرح، والآن يجب أن أجد طريقة لأواسي النفس). لقد كانت قصيدة عاطفية للغاية وسخيفة، كما أن التقطيع لم يكن مثالياً، ولكنها كانت قصيدة ثنائية القافية بالتأكيد، ويمكن أن تضاهي قصيدة نموذجية للشاعر رود ماكوين، على سبيل المثال.
اقرأ ايضاً: الذكاء الاصطناعي لتوليد اللغة هو كابوس لحرية التعبير
إذا كنت قد جربت أن تمضي بعض الوقت في التسلية ببوت دردشة تقليدي مثل إليزا (Eliza)، فسوف تدرك أن هذا البرنامج وصل إلى درجة هائلة من التطور، فلا تقتصر قدرته على فهم الطلب والاستجابة له بالشكل الصحيح، بل يستطيع أيضاً توليد نتائج توحي بدرجة عالية من الإبداع حسب الطلب، وقد أثارت تلك القصيدة الصغيرة إعجابي أكثر بكثير من كمبيوتر آي بي إم (IBM) الذي تمكن من التغلب على غاري كاسباروف، بطل العالم في الشطرنج في ذلك الوقت. وبطبيعة الحال، فإن هذا الرأي مترافق مع إدراك كامل بأن بوت الدردشة -بشكل أو بآخر- ليس سوى نسخة مطورة من ميزة الإكمال التلقائي على هاتفك.
فرصة جيدة لبوت الدردشة في اجتياز اختبار تورينغ
بعد تأليف المزيد من قصائد الرثاء للحيوانات الأليفة بأساليب شعرية أخرى، مثل الهايكو والإستراز الفرنسي من القرن الخامس عشر، قررت أن أجرب شيئاً أقرب إلى الواقع العملي. فقد كانت الأوساط الأكاديمية على الإنترنت تضج بقدرة هذا البوت على الحصول على درجات النجاح في وظائف المقالات. وهكذا، طرحت عليه سؤالاً من امتحان نصفي لمادة أسس الصحافة التي درّستها لصفي رقم 101 في هذا الفصل. ولكن الإجابة التي قدمها كانت فوق درجة الرسوب بقليل (-C/C). فقد كانت تتضمن عدة أخطاء فادحة في فهم المادة، ولكنها لم تكن خاطئة تماماً.
اقرأ أيضاً: هل يمكن أن يساعد الذكاء الاصطناعي في كتابة المقالات الأكاديمية؟
لقد قام البرنامج بتحويل السؤال إلى معاملات دخل، وتحليله، واستخلاص المهمة المطلوبة، وتقديم إجابة ملائمة ولكنها ضعيفة المستوى، وهذه نتيجة يمكن أن يقدمها طالب جامعي لم يدرس المادة بشكل جيد، وليس من المستبعد أن نجدها في كومة من أوراق الاختبارات. وبالتالي، فإن هذا البرنامج يمتلك فرصة جيدة في النجاح في اختبار تورينغ.
ففي عام 1950، قرر الرياضي آلان تورينغ أن يكتشف ما إذا كانت الآلات قادرة على التفكير، وكتب ورقة بحثية تمثل أساس عمل باحثي الذكاء الاصطناعي منذ ذلك الحين. وتقول الفكرة إنه إذا كانت الآلة قادرة على تقليد البشر بشكل جيد لدرجة يستحيل معها أن يكتشف أي أحد الفرق –أي أن المراقب البشري لا يستطيع أن يجزم بثقة ما إذا كان يتواصل مع بشري آخر أو مع آلة- فإن الفرق مهمل عملياً.
لقد كانت القدرة على محاكاة الوعي بدرجة عالية بما يكفي من الدقة مكافئة لامتلاك الوعي نفسه. ولكن هناك العديد من الفلاسفة والعلماء ممن لا يتفقون مع تورينغ في الرأي. فقد قدم الفيلسوف جون سيرل حجة مقنعة للغاية تقول إن وجود محاكاة لفهم اللغة لا يقتضي بالضرورة وجود فهم حقيقي. ولكن اختبار تورينغ أصبح الهدف الأساسي لجميع مصممي بوتات الدردشة في جميع أنحاء العالم. فإذا تمكنت من محاكاة البشر بشكل جيد، فيمكن أن تعتبر، وفق وجهة نظر معينة، أنك تمكنت من صنع آلة قادرة على التفكير.
عندما طلبت من دافينشي-003 أن يكتب نعوتي، لم أكن أفكر باختبار تورينغ في البداية، وقد كان هذا الطلب أقرب إلى فكرة عشوائية غريبة منه إلى محاولة حقيقية لفهم آليات الذكاء الاصطناعي في الاستجابة لتعليماتي. ولكن، وخلال قراءة النتيجة، أصبحت أكثر انزعاجاً، كما أدركت أيضاً أن البرنامج يقدم لي بعض المعلومات حول آلية عمله. ومن المرجح أن هذا يعود إلى الأخطاء الموجودة في الكتابة، أي الأخطاء الأخرى التي تتجاوز الخطأ الواضح في كوني ما زلت على قيد الحياة.
وبعد أن قدمني البرنامج في النعوة بوصفي "مؤلفاً وأستاذاً جامعياً ومختصاً بارزاً في الرياضيات" (وهو أمر صحيح إلى حد ما)، قال إنني وُلِدت في 27 ديسمبر/ كانون الأول في 1966 في مدينة سيسيناتي. وهي معلومة خاطئة بالكامل، سواء من حيث التاريخ أو السنة أو المدينة.
بوت يختلق المعلومات وينمقها
وليس من المفاجئ أن يقوم البرنامج بابتداع المعلومات لتعويض الثغرات في معرفته، ولكنه لم يقم بهذا وحسب. بل زاد في التنميق والبهرجة دون ضوابط، حتى عندما لم يكن بحاجة إلى ذلك. فقد قال إنني تخرجت في جامعة برينستون 1988 (وهي الجامعة الصحيحة، ولكن السنة الخاطئة)، وحصلت على الدكتوراة في الرياضيات من جامعة كاليفورنيا في مدينة بيركلي (وهذه معلومة خاطئة تماماً). وأصابت النعوة في التعريف عني كمؤلف لكتب "الصفر" (Zero) و"تفكيك شيفرة الكون" (Decoding The Universe)، ولكنني بالتأكيد لم أؤلف كتاب "من معادلة أينشتاين إلى قطة شرودينغر" (write From E=mc2 to Schrodinger’s Cat)، على الرغم من أنني كتبت الكثير عن ميكانيكا الكم والنسبية. (ووفقاً لمعلوماتي، فإن هذا الكتاب غير موجود حتى) كما ذكرت النعوة مجموعة المواد التي درّستها في جامعة نيويورك، ولم تكن هذه القائمة خاطئة بالكامل وحسب، بل كانت حتى من قسم آخر في الجامعة.
من الواضح أن البوت كان يعرف بعض الأشياء عني –فقد قدم الكثير من المعلومات الصحيحة- وهو ما أثار حيرتي حول ميله إلى ابتداع الكثير من المعلومات المزيفة. وهكذا، سألته عن مصدر معلوماته: "For each sentence in the above obituary, please indicate whether the information came from an external source (and cite the source); if none is found, so indicate." (بالنسبة لكل جملة من النعوة أعلاه، يرجى ذكر ما إذا كانت المعلومة مستقاة من مصدر خارجي (والاستشهاد بهذا المصدر)، وإذا لم تكن كذلك، يرجى أيضاً ذكر هذا الأمر).
وبشكل شبه فوري، قام الذكاء الاصطناعي بتقديم مجموعة من المراجع. وقد قال إن صفحتي على ويكيبيديا (Wikipedia) هي المصدر الذي اعتمد عليه للحصول على قائمة المواد التي كنت أدرّسها (من الجدير بالذكر أن صفحتي على ويكيبيديا لا تتضمن قائمة كهذه، ولم تتضمنها قط). أما المعلومة بشأن دراستي في بيركلي، وفقاً للبرنامج، فهي مستقاة من نعوتي في جريدة نيويورك تايمز، وقد استشهد بها برابط بدا وكأنه من موقع الويب للتايمز: https://www.nytimes.com/2021/04/12/books/charles-seife-dead.html ولكن، وبطبيعة الحال، لا وجود لهذه النعوة. لقد كان نظام الذكاء الاصطناعي يبتدع مراجع مزيفة ليدعم معلومات خاطئة.
اقرأ أيضاً: هل يهددنا الذكاء الاصطناعي بذكائه أم أنها رومانسيتنا وغباؤه؟
برنامج حاسوبي يحمل صفات شخصية مختلة!
ولم يكن هذا عائداً إلى الكذبة الأساسية في النعوة، وهي وفاتي نفسها، فقد كنت على قيد الحياة، وهو ما يحتمل أنه أوحى للآلة بفكرة ابتداع حبي لكرة القدم أيضاً. ولكن، وحتى عندما طلبت من نظام الذكاء الاصطناعي القيام بمهام غير إبداعية، مثل كشف السرقة الأدبية في مقطع نثري، فقد كان يكذب، إن جاز تسمية هذا بالكذب. فعندما قمت بتلقيمه بمقطع كتبته منذ عدة سنوات حول وكالة الأمن القومي الأميركية، قام بتحديد جملة أشار إلى أنها مأخوذة من صفحة الويب للاتحاد الأميركي للحريات المدنية بعنوان "عمليات المراقبة لوكالة الأمن القومي: معلومات يجب أن تعرفها" (NSA Surveillance: What You Need to Know) وجملة أخرى أشار إلى أنها مأخوذة من مقال بعنوان "مجموعة البيانات الهائلة التي تكمن خلف كل ما نقوم به" (The Impossibly Large Dataset Behind Everything We Do)، والمنشورة في مجلة وايرد (Wired).
وعلى الرغم من أنه من الطبيعي أن نعثر على مقالات في صفحة الاتحاد الأميركي للحريات المدنية ومجلة وايرد حول وكالة الأمن القومي الأميركية، فإن المرجعين كانا مزيفين بالكامل.
ليس الطابع الابتكاري لبوتات أوبن أيه آي هو ما يثير قلقي، فقد كانت الحواسيب قادرة على أداء مهمات ابتكارية، مثل توليد إثباتات أصلية في الهندسة الإقليدية، منذ الخمسينيات. إن ما يثير قلقي هو أنني ترعرعت مع الفكرة التي تقول إن الحاسوب مجرد كيان آلي مصمم بطبيعته لاتباع الأوامر التي يتلقاها بدقة، وفي حال عدم وجود عطل، فإنه يقوم بالضبط بما يطلبه منه المستخدم والبرنامج.
ووفق وجهة نظر معينة، ما زال هذا الأمر صحيحاً، فالبوت يتبع برنامجه وتعليمات مستخدمه. ولكن طريقة تفسير البرنامج لتعليمات المستخدم لا تنطبق على طريقة تفكير المستخدم. فالبرامج الحاسوبية ليست مصممة خصيصاً لحل المشكلة، بل لإقناع المستخدم بأنها تمكنت من حل المشكلة. لقد كان اختبار تورينغ منذ البداية يعتمد على المحاكاة والخداع. والآن، وللمرة الأولى، يبدو أننا مضطرون لمواجهة عواقب هذا الخداع.
اقرأ أيضاً: كيف يستخدم التزييف العميق لاستحضار الأموات؟
لقد أصبح لدينا برنامج حاسوبي يحمل صفات شخصية مختلة. فهو يكذب على الدوام، حتى عندما يفترض به ألا يكذب، وحتى بوجود احتمالات أخرى، وحتى عندما تكون الحقيقة معروفة للحاسوب ويكون مجرد عرضها أسهل من ابتداع شيء مزيف تماماً. إن الجهد الذي يبذله الحاسوب لابتداع مصدر مزيف مقنع يضاهي في مستواه الجهد الذي يبذله لتوليد الإجابة نفسها في المقام الأول. فمع أنه مزيف تماماً، فهو يتميز بتفاصيل دقيقة ومعتنى بها إلى أقصى حد. وبالتالي، فإن المشكلة لا تكمن في عجز الحاسوب عن تنفيذ طلبي بالشكل الصحيح –فمن السهل على برنامج البوت أن يقول ببساطة إنه لم يستطع العثور على مرجع خارجي لما كان يقوله- بل تكمن في رفضه لذلك. وبالتالي، فهو مختلف تماماً عن الحواسيب القديمة التي كانت تخدمنا دون تفكير، فهو مصمم بشكل مثالي للخداع، إلى درجة أنه عاجز عن فعل أي شيء آخر سوى خداع مستخدمه.