منذ خمس سنوات، سافرت إلى ستوكهولم لتغطية المؤتمر السنوي لويكيبيديا (Wikipedia) ومشاريع المعرفة المجانية ذات الصلة؛ ولكن مشاغلي في السويد لم تقتصر على مقابلات ويكيبيديا والسكاكر، فخلال إحدى الأمسيات المسلية صادفت مجموعة تلعب لعبة طاولة تتمحور حول الشكل المتوقع لويكيبيديا في العام 2035. وتضمنت هذه اللعبة المستقبلية لتقمص الأدوار، بصورة مماثلة للعبة دانجنز أند دراغونز (Dungeons & Dragons) الشهيرة، مجموعة متنوعة من الشخصيات المميزة مثل يوكي؛ وهو مؤلف يعتمد على الذكاء الاصطناعي لتأليف موسيقى البوب وكاتب في ويكيبيديا وليفاي، وهو مناصر متحمس لحركة مناهضة التكنولوجيات الحديثة للغاية، ويعتقد أن التأليف على ويكيبيديا يجب أن يقتصر على البشر فقط.
جدل حاد داخل ويكيبيديا حول السماح لتشات جي بي تي بكتابة المقالات
وفي ذلك الحين، بدت لي اللعبة مبتكَرة ولكنها أقرب إلى تجربة عقلية تتسم بالمبالغة؛ ولكن يبدو أن المساهمين في ويكيبيديا يخوضون جدلاً حاداً حول السماح لنموذج الذكاء الاصطناعي تشات جي بي تي (ChatGPT) بكتابة المقالات على ويكيبيديا. وسواء أكان المساهمون في ويكيبيديا مستعدين أو لا، فيجب أن يعثروا على إجابة حاسمة لمسألة السماح للذكاء الاصطناعي التوليدي بالدخول إلى مجال الموسوعات.
في نوفمبر/ تشرين الثاني المنصرم، قامت شركة أوبن أيه آي (OpenAI) التي ابتكرت تشات جي بي تي، بفتح المجال أمام العامة لتجربة نموذج أولي من بوت الدردشة. ومنذ ذلك الحين، كان الناس يستخدمونه في نطاق واسع من التطبيقات؛ بما في ذلك الحوار الشبيه بالحوار البشري وترجمة اللغات والبحث عن الأخطاء البرمجية. وقد تم تدريب النموذج اللغوي الذي يعتمد عليه هذا البوت، وهو جي بي تي 3.5، باستخدام قاعدة بيانات تم استخلاصها من مساحات هائلة من الإنترنت بما في ذلك العديد من مواقع الويب والمدونات بل وويكيبيديا نفسها.
وعلى الرغم من أن هذا البوت مدرب على مقدار هائل من النصوص، فهو ما يزال عرضة لارتكاب أخطاء مرعبة، وتُمكنا، على سبيل المثال، من رؤية الأكاذيب التي اكتشفها أحد الكتاب المساهمين في مجلة سليت (Slate)، وهو تشارلز سيف عندما طلب من هذا البوت أن يؤلف نعوة له. وفي هذه الأثناء، ما زالت هذه التكنولوجيا تثير نقاشات حادة حول مستقبل العمل المعرفي والتعليم، فمنصة تيك توك (TikTok) تعج بمقاطع الفيديو للطلاب من الجيل زد (Gen Z) الذين يطلبون من تشات جي بي تي أن يحل فروضهم المنزلية.
اقرأ أيضاً: الذكاء الاصطناعي يسهل عمليات الغش في الامتحانات
ونظراً لكل هذا الضجيج الإعلامي، فقد كانت مسألة وقت وحسب قبل أن يطلب أحدهم من تشات جي بي تي كتابة مقال على ويكيبيديا حول موضوع ما. ففي 6 ديسمبر/ كانون الأول، قام ريتشارد نيبل (Richard Knipel)؛ وهو كاتب مخضرم في ويكيبيديا ويستخدم الاسم المستعار فاروس (Pharos) كما أنه أحد المساهمين في الفرع المحلي لمدينة نيويورك من منظمة ويكيميديا (Wikimedia)، بنشر صفحة جديدة في ويكيبيديا تحمل اسم "عنوان العمل الفني" (Artwork title).
وأورد في ملخص الصفحة الشرح التالي: "ستتم كتابة هذه المسودة من قبل تشات جي بي تي، وستخضع لتعديلات كبيرة"! وتمثل نسخة الذكاء الاصطناعي التي قال نيبل إنه أجرى عليها تعديلات طفيفة قبل نشرها، توصيفاً عاماً ولكنه صحيح نحوياً، لتعريف اسم العمل الفني كما يتضمن إشارات إلى أمثلة قديمة وحديثة. وفي وقت لاحق، نشر نيبل على صفحة الحوار أنه يعتقد أنها المرة الأولى التي قام فيها شخص بكتابة النسخة الأولية من مقال باستخدام تشات جي بي تي، وكان صريحاً وشفافاً حول هذا الاستخدام.
اقرأ أيضاً: هل يمكن أن يساعد الذكاء الاصطناعي في كتابة المقالات الأكاديمية؟
تشات جي بي تي كنقطة بداية لكن الدور البشري هو الأهم
ويعتقد كتّاب ويكيبيديا مثل نيبل، أنه يمكن استخدام تشات جي بي تي كأداة على ويكيبيديا دون التخلي عن الدور البشري. وبالنسبة إليهم، فإن النص الأولي الذي يقوم بوت الدردشة بتوليده مفيد كنقطة بداية أو مخطط تمهيدي لمقال أولي، وبعد ذلك يقوم الكاتب البشري بالتأكد من صحة المعلومات ودعمها بمصادر موثوقة، ويجري على المقال التعديلات والتحسينات المطلوبة. وبهذه الطريقة، لا تتحول ويكيبيديا إلى مجموعة من المقالات التي ألفتها الآلات ويبقى البشر العنصر الأهم في المشروع.
لقد سألت نيبل عن السبب الذي دفعه إلى اختيار اسم العمل الفني -مثل الموناليزا- كموضوع جيد لتجربة التكنولوجيا الجديدة. وأجاب قائلاً: "إنه موضوع عام إلى حد ما، وقد كنت أفكر في كتابة مقال عنه منذ فترة قد تصل إلى سنتين على الأرجح. وتشير تجربتي إلى أن هذا العمل يفيد في أغلب الأحيان في التغلب على عقدة توقف الإنتاج عند الكاتب".
أما مساهم ويكيميديا في مؤسسة سميثسونيان في واشنطن والمحرر المتطوع في ويكيبيديا منذ 2003، آندرو لي (Andrew Lih) فهو يتفق مع الفكرة التي تقول بأن معظم الفوائد الكامنة في تشات جي بي تي تكمن في التغلب على البطء الأولي في الكتابة، والعثور على دفعة الطاقة المنشطة التي تدفع إلى كتابة مقال جديد للموسوعة. ويقول: "لا يفتقر كتّاب ويكيبيديا إلى الدافع أو الشغف بل إلى الوقت وحسب".
وينظر آندرو إلى تشات جي بي تي على أنه شكل جديد لقانون كانينغهام (Cunningham’s Law)، وهي فكرة منسوبة إلى مطور ويكيبيديا الأصلي وورد كانينغهام (Ward Cunningham): "إن أفضل طريقة للحصول على الإجابة الصحيحة على الإنترنت ليست توجيه سؤال عنها بل نشر إجابة خاطئة"! ويقول لي: "يمكن تشبيه الوضع هنا بهذه الطريقة من عدة نواحٍ مختلفة، فأفضل طريقة لكتابة مقال على ويكيبيديا هي نشر نسخة سيئة للغاية وخاطئة من هذا المقال بتأليفها على تشات جي بي تي، وستكون هذه النسخة كافية للاطمئنان إلى وجود شيء يمكن البناء عليه وتحسينه".
اقرأ أيضاً: كيف يمكنك التأكد أنك تحادث بشراً وليس برنامج بوت؟
ولإصلاح المسودة الأولية؛ يجب على البشر أن يحذروا من المشكلات الموجودة في النسخة التي أنتجها الذكاء الاصطناعي، فبعد تدقيق النتيجة التي قدمها نظام الذكاء الاصطناعي، لاحظ نيبل أن تشات جي بي تي يميل إلى المبالغة في التعميم، منتجاً نصوصاً مشابهة للمثال التالي: "وسواء أكان اسم العمل الفني وصفياً أو تجريدياً فإنه يمثل عنصراً أساسياً من العملية الفنية". كما شعر نيبل بضرورة التخفيف من لهجة تشات جي بي تي حتى تصبح أقرب إلى أسلوب ويكيبيديا الأقرب إلى الحيادية. ويقول: "إنه كاتب واثق من نفسه للغاية، ويجب تعديل أسلوبه لإضفاء شيء من التواضع عليه".
مشكلة المراجع بين ويكيبيديا وتشات جي بي تي
إضافة إلى هذا، ثمة أيضاً مشكلة المراجع فسياسة ويكيبيديا في التحقق من المراجع تعني أن القرّاء يجب أن يكونوا قادرين على التحقق من وثوقية مصدر المعلومات، ولهذا فإن العديد من المقالات تحتوي على العشرات من الروابط المرجعية في أسفل الصفحة. ولكن تشات جي بي تي لا يقوم عادة بتقديم مراجع لإجاباته كما أن طلب المراجع من البوت يدفعه عادة إلى ابتداع نتائج غريبة.
على سبيل المثال؛ كان آندرو لي يستخدم تشات جي بي تي لوضع مسودة لمشروع صفحة ويكيبيديا جديدة تتحدث عن مفهوم "استخدام ضعف الكفاءة كسلاح"، وقال إن الشرح العام الذي قدمه تشات جي بي تي للموضوع كان جيداً ولكن المصادر التي اعتمد عليها من مجلة فوربس (Forbes) وصحيفة الغارديان (Guardian) ومجلة سايكولوجي توداي (Psychology Today) كانت مبتدعة بالكامل، وهذه المقالات غير موجودة على الإطلاق! وحتى عناوين مواقع الويب كانت مزيفة ومولدة آلياً، وتوجه إلى صفحات تتضمن رسالة الخطأ "لم يتم العثور على الصفحة".
وعلى حين أن بعض مؤلفي الروايات على منصة القراءة كيندل (Kindle) استفادوا من قدرة تشات جي بي تي على ابتداع أشياء خيالية تبدو معقولة، فإن ابتداع الحقائق ليس بالطبع الهدف المنشود للموسوعات الموثوقة. ولهذا، ليس من المستغرب أن يشعر بعض المساهمين في ويكيبيديا بالقلق. "يكمن الخطر في زيادة صعوبة مراقبة المحتوى الذي تتم إضافته إلى الموقع من قبل محرري ويكيبيديا" كما تقول الأستاذة المساعِدة في مجال الميديا الرقمية والاجتماعية في جامعة سيدني للتكنولوجيا ومؤلفة كتاب "ثورة الكتابة: ويكيبيديا والحفاظ على الحقائق في العصر الرقمي" (Writing Revolution: Wikipedia and the Survival of Facts in the Digital Age)، هيذر فورد (Heather Ford). وتتابع: "وستتمكن الأطراف الخبيثة، وبسهولة أكبر، من صياغة محتوىً خيالي يعتمد على مراجع خيالية أيضاً".
اقرأ أيضاً: كيف يكون الحال عند تأليف كتاب بمشاركة الذكاء الاصطناعي؟
ويكيبيديا استخدمت البوتات من قبل!
ولكن تلحظ فورد مرة أخرى أن مساهمي ويكيبيديا وافقوا منذ زمن على السماح باستخدام البوتات والاعتماد على المحتوى المؤتمت في بعض الحالات المحددة. ففي 2002، استخدم مساهم ويكيبيديا المعروف باسم رام-مان (Ram-Man) أداة الأتمتة رام بوت لتوليد صفحات ويكيبيديا بشكل آلي حول المدن الأميركية بناء على معلومات الإحصاء السكاني الأميركية، بدءاً بمقال أوّلي إلى حد ما حول مدينة أوتاوغافيل في ولاية ألاباما. وقد أثار عمل رام بوت الجدل لأن المقالات اللاحقة كانت مبنية على الصيغة نفسها؛ حيث تعتمد على المعلومات الأولية الرقمية وتضعها ضمن صياغة آلية الشكل، لإنتاج عدد كبير من الصفحات التي وصفها المستخدمون بأنها مجرد "صفحات أولية".
وفي كل يوم، يعمل مساهمو ويكيبيديا المتحدثون بالإنجليزية على مواجهة البوتات التي تقوم ببساطة بإقحام البيانات ضمن صيغ محددة مسبقاً، أو تقوم بترجمة المحتوى آلياً دون إشراف بشري. ومن الناحية الأخرى، فإن البوتات التي تقوم آلياً بكشف التخريب ومراقبة كلمات الشتائم الشائعة، أصبحت الآن مقبولة على نطاق واسع.
وحتى الآن، لم يضع مساهمو ويكيبيديا قواعد رسمية حول تشات جي بي تي تحديداً، على الرغم من أن المحررين قالوا لي إن السياسات الحالية لمنع السرقة الأدبية وفرض مصادقة المحتوى قد تمنع استخدام النص المولد بالذكاء الاصطناعي بصورة مباشرة دون تدقيق. وعلى الرغم من هذا، يقول البعض إنه يجب حظر تشات جي بي تي كلياً. يقول أحد المحررين: "من وجهة نظرية، يجب أن نشدد على منع استخدام أدوات الذكاء الاصطناعي لكتابة مسودات المقالات حتى لو خضعت بعد ذلك لمراجعة بشرية، فتشات جي بي تي بارع للغاية في منح المعلومات المزيفة صيغة توحي بأنها حقيقية".
أما بعض مستخدمي ويكيبيديا الآخرين فيصف هذا الموقف بأنه إجراء مبني على رد فعل مبالغ به ويمكن أن يكون مؤسفاً للغاية، ومن المقبول به عموماً أن محرري ويكيبيديا يمتلكون مهارات تجعلهم أكثر براعة في استخدام تشات جي بي تي من معظم الأشخاص الآخرين. "إنه أداة أدبية، وهذا التراكب بين الأدب والبرمجة هو أحد نقاط القوة لدى مساهمي ويكيبيديا" كما يقول نيبل. يشعر بعض المساهمين المخضرمين بالقلق من فقدان ويكيبيديا لروح المبادرة الجريئة واكتسابها بنية تقاوم أي شكل من التغيير بحدة. يقول لي: "لقد أجمعنا أخيراً على ضرورة أن تكون ويكيبيديا موثوقة ومسؤولة وقابلة للتدقيق والمصادقة، وهو أمر رائع ولكنه أدى في الوقت نفسه إلى إبعادنا عن التجريب والمغامرة".
اقرأ أيضاً: تعرف على الذكاء الاصطناعي الذي يصحِّح أخطاءك اللغوية
ضرورة تحديد الممارسات الأفضل لا حظر استخدام تشات جي بي تي
وبدلاً من فرض حظر شامل، فقد يكون من الأفضل تحديد الممارسات الأفضل. فعندما أجرى لي اختباره على تشات جي بي تي، قام بوضع النسخة الأولية التي ألفها الذكاء الاصطناعي ضمن صفحة الصياغة التي يقوم مستخدم ويكيبيديا بكتابة المسودة فيها (والمعروفة باسم صندوق الرمل (sandbox) بدلاً من نشرها على الموسوعة العامة والمفتوحة. كما يقوم لي بإضافة وسم #ChatGPT على هذه المقاطع حتى يصبح البحث عنها أكثر سهولة؛ بل وقام حتى ببناء سجل بالأوامر المحددة التي لقّنها لبوت الدردشة مثل: "Write an article that adheres to Wikipedia’s policy of neutral point of view" (اكتب مقالاً يلتزم بسياسة ويكيبيديا في الحياد). ويبدو أن الشفافية هي المبدأ العام الذي يجب الالتزام به،
وفي هذه الأثناء اندلع الجدل على صفة نيبل الأصلية، فمع أن المقال أصبح أطول بكثير من نسخة الذكاء الاصطناعي الأصلية إلا أن أحد محرري ويكيبيديا أضاف "شارة العار" البرتقالية أعلى الصفحة، وتمثل هذه الشارة تحذيراً للقرّاء من أن الصفحة قد تحتوي على "بحث مبتدَع" غير مناسب للنشر على الموسوعة. ويعتبر المحرر أن نيبل ارتكب خطأ فادحاً ببناء مقالته في الاتجاه المعاكس؛ أي استخدام نص مكتوب من قبل تشات جي بي تي ولا يحتوي على مصادر حقيقية ثم إضافة مصادر حقيقية وموثوق فيها بعد ذلك لتأكيد ما ورد في النص.
اقرأ أيضاً: أهم 5 مخاطر ومسائل أخلاقية مرتبطة باستخدام الذكاء الاصطناعي
ويقول نيبل، رداً على هذا، إن ويكيبيديا كانت تعتمد على هذه الطريقة في العمل طوال الوقت: "لطالما كانت المعلومات تحتوي على أخطاء في البداية ويتم تصحيحها لاحقاً، أما إذا كانت المشكلة تكمن في الخطأ المطلق لاستخدام الذكاء الاصطناعي فأنا لا أؤمن بوجود أخطاء مطلقة". قد تكون هذه العبارة أفضل طريقة لتلخيص الوضع بشكل عام، فالذكاء الاصطناعي التوليدي لن يختفي ببساطة، ولهذا من الأفضل اعتماد أفضل الممارسات في استخدامه والتشديد على ضرورة وجود الإشراف البشري، لا حظر استخدامه بالكامل منذ البداية وكأنه خطيئة لا تُغتفر.