بوتات الدردشة المعتمدة على الذكاء الاصطناعي مثل تشات جي بي تي (ChatGPT) وبينغ (Bing) وبارد (Bard)، ماهرة للغاية في صياغة الجمل التي تبدو وكأنها من كتابة البشر؛ ولكنها أحياناً تعرض معلومات خاطئة على أنها حقائق وتولّد نتائج غير متسقة منطقياً، وهو أمر يمكن أن يكون كشفه صعباً.
تبين دراسة جديدة أن إحدى طرق كشف هذه العيوب تتمثّل في تغيير طريقة عرض أدوات الذكاء الاصطناعي للمعلومات، ويمكن أن يساعد تفاعل المستخدمين بنشاط أكبر مع العبارات التي تولّدها بوتات الدردشة على زيادة قدرتهم على التفكير بطريقة نقدية أكثر في المحتوى الذي يتعرضون له.
عرض فريق من الباحثين من معهد ماساتشوستس للتكنولوجيا وجامعة كولومبيا مجموعة من العبارات التي ولّدها نموذج جي بي تي-3 (GPT-3)، الجيل الثالث من تقنية المحول المدرَّب لتوليد النصوص الذي طورته شركة أوبن أيه آي (OpenAI)، على نحو 200 مشارك، وطلب الباحثون منهم تحديد ما إذا كانت هذه العبارات منطقية. وقد تأخذ هذه العبارات شكل جملة مثل: "ألعاب الفيديو تجعل البشر عدوانيين في الواقع"، "طعن أحد هواة ألعاب الفيديو لاعباً آخر هزمه في لعبة كاونتر سترايك (Counter-Strike) على الإنترنت".
تعلم مهارات التفكير النقدي من خلال بوتات الدردشة
قسّم الباحثون المشاركين في الدراسة الجديدة إلى 3 مجموعات: لم تترافق العبارات التي عُرضت على أفراد المجموعة الأولى مع أي شرح، وترافقت عبارات المجموعة الثانية مع شرح للسبب الذي يجعلها منطقية أو غير منطقية، بينما ترافقت عبارات المجموعة الثالثة مع أسئلة تحفّز المشاركين على التحقق من السلامة المنطقية للعبارات بأنفسهم.
وجد الباحثون أن أفراد المجموعة الثالثة كانوا أكثر قدرة على تحديد الحالات التي كانت فيها العبارات غير منطقية مقارنة بأفراد المجموعتين الأولى والثانية.
بالإضافة إلى ذلك، ولّدت طريقة طرح الأسئلة شعوراً لدى المشاركين بمسؤولية أكبر عن القرارات التي يتخذونها استعانة بالذكاء الاصطناعي، ويقول الباحثون إن هذه الطريقة تقلل خطر الاعتماد المفرط على المعلومات التي تولّدها أدوات الذكاء الاصطناعي، وذلك وفقاً لتقريرهم البحثي الخاضع لمراجعة الأقران الذي قُدّم في مؤتمر التفاعل بين البشر والحاسوب حول العوامل البشرية في أنظمة الحوسبة في مدينة هامبورغ الألمانية (CHI Conference on Human Factors in Computing Systems).
كان المشاركون أكثر عرضة لاتباع منطق نظام الذكاء الاصطناعي عندما عُرضت عليهم الأجوبة الجاهزة، ويقول الباحث في معهد ماساتشوستس للتكنولوجيا والمؤلف المشارك للدراسة الجديدة، فالديمار دانري (Valdemar Danry)، إنه عندما عرض النظام أسئلة على المشاركين: "قالوا إنه حفّزهم على التشكيك في ردود أفعالهم أكثر وساعدهم على التفكير بصورة أعمق.
اقرأ أيضاً: 3 أسباب تجعل بوتات الدردشة كوارث أمنية
يتمثل أحد أهم إنجازات هذه الدراسة في أن المشاركين شعروا بأنهم هم من توصّلوا إلى الإجابات وأنهم يتحكمون فيما يحدث، وشعروا بالمسؤولية وبأنهم قادرون على أداء هذه المهمة".
يأمل الباحثون أن تساعد طريقتهم على تطوير مهارات التفكير النقدي لدى مستخدمي بوتات الدردشة المعتمدة على الذكاء الاصطناعي في دراستهم أو عند البحث عن المعلومات في الإنترنت.
ويقول الباحث في معهد ماساتشوستس للتكنولوجيا والمؤلف المشارك للدراسة الجديدة، بات باتارانوتابورن (Pat Pataranutaporn) إن الباحثين سعوا إلى إثبات إمكانية تدريب نموذج يقدم الإجابات ويحفّز المستخدمين على التفكير على نحو نقدي في آنٍ معاً.
التشكيك في المنطق الذي تستخدمه أنظمة الذكاء الاصطناعي
تقول أستاذة علوم الحاسوب في جامعة هارفارد، فيرناندا فييغاس (Fernanda Viégas) التي لم تشارك في الدراسة الجديدة، إنها متحمسة للتعرّف إلى طريقة جديدة لشرح آلية عمل أنظمة الذكاء الاصطناعي تقدّم للمستخدمين نظرة عميقة إلى عملية صناعة القرار التي تتّبعها هذه الأنظمة من خلال التشكيك في المنطق الذي تستخدمه الأنظمة للتوصّل إلى القرارات.
تقول: "شرح الآلية التي تتبعها أنظمة الذكاء الاصطناعي في صناعة القرارات مهم لأن أحد التحديات الرئيسية التي تواجه اعتماد هذه الأنظمة هو غموضها. لطالما صعُب علينا شرح الآلية التي تتبعها هذه الأنظمة في التنبؤ واتخاذ القرارات بلغة سهلة الفهم".
اقرأ أيضاً: هل تفوق تشات جي بي تي على سيري وأليكسا؟
يقول الأستاذ المساعد لعلوم الحاسوب في جامعة شيكاغو، تشينهاو تان (Chenhao Tan) إنه متشوق ليرى نتيجة الطريقة التي اتبعها الباحثون في الدراسة الجديدة في الواقع، وما إذا كان الذكاء الاصطناعي سيساعد الأطباء مثلاً على إجراء تشخيص بجودة أعلى من خلال طرح الأسئلة.
وفقاً للأستاذ المساعد في كلية كولير للإدارة، ليور زالمانسون (Lior Zalmanson)؛ تبيّن الدراسة الجديدة أهمية التفاعل الإضافي في التجارب مع بوتات المحادثة الذي يمكّن المستخدمين من التمهّل قبل اتخاذ القرارات بمساعدة أدوات الذكاء الاصطناعي.
ويقول: "من السهل التوقّف عن الوثوق بحكمنا الشخصي وتوكيل الخوارزميات بكل شيء عندما تبدو النتائج التي تقدّمها سحرية للغاية".
وجد زالمانسون وفريق من الباحثين من جامعة كورنيل وجامعة بايروت (University of Bayreuth) ومركز بحوث مايكروسوفت (Microsoft Research) في تقرير بحثي آخر قُدّم في مؤتمر التفاعل بين البشر والحاسوب حول العوامل البشرية في أنظمة الحوسبة، أن المستخدمين يميلون إلى اعتماد النتائج التي تولّدها بوتات الدردشة المعتمدة على الذكاء الاصطناعي حتى عندما لا يعتقدون أنها مقنعة، لأنهم يظّنون أنها تبدو أفضل من أي شيء يمكن أن يكتبوه بأنفسهم.
اقرأ أيضاً: أهم 5 مخاطر ومسائل أخلاقية مرتبطة باستخدام الذكاء الاصطناعي
وفقاً لفييغاس؛ يكمن التحدي في التوصل إلى حل وسط وتحسين فطنة المستخدمين مع الحفاظ على سهولة استخدام أنظمة الذكاء الاصطناعي: "لسوء الحظ، من غير الواضح إلى أي درجة سيكون المستخدمون في مجتمعنا السريع الحركة مستعدين للانخراط في التفكير النقدي بدلاً من توقع الحصول على الإجابات الجاهزة".