ما الذي يجب أن نتوقعه من بوتات الدردشة: الطبيب أم الصديق أم المعالج النفسي؟

4 دقيقة
مصدر الصورة: ستيفاني آرنيت / إم آي تي تكنولوجي ريفيو | أدوبي ستوك

كيف تريد من الذكاء الاصطناعي أن يعاملك؟

إنه سؤال جدي، وهو سؤال من الواضح أن الرئيس التنفيذي لشركة أوبن أيه آي، سام ألتمان، كان يفكر فيه منذ إطلاق النموذج جي بي تي 5 المتعثر في بداية أغسطس/آب.

يواجه ألتمان معضلة ثلاثية؛ هل ينبغي لتشات جي بي تي أن يجاملنا، مع المخاطرة بتأجيج الأوهام التي يمكن أن تخرج عن السيطرة؟ أم أن يعالجنا، وهو ما يتطلب منا أن نصدق أن الذكاء الاصطناعي يمكن أن يكون معالجاً على الرغم من الأدلة التي تشير إلى ما يخالف ذلك؟ أم يجب أن يقدم لنا ردوداً مباشرة وخالية من المشاعر قد تجعل المستخدمين يشعرون بالملل وتقلل احتمالية استمرارهم في المشاركة التفاعلية؟

يمكن القول إن الشركة فشلت في اختيار مسار معين.

تشات جي بي تي: مساعد أم معالج أم متلقي صدمات؟

في أبريل/نيسان الماضي، تراجعت الشركة عن تحديث تصميمي بعد أن اشتكى المستخدمون من أن تشات جي بي تي أصبح متملقاً، إذ أخذ يغدق عليهم بالمجاملات السطحية. كان من المفترض أن يخفف جي بي تي 5، الذي صدر في 7 أغسطس/آب، لهجته الودية قليلاً في ردوده. ليتضح أن أسلوبه كان خالياً من المشاعر إلى حد كبير بالنسبة إلى البعض، حيث إن ألتمان بعد أقل من أسبوع، وعد بتحديث يجعل أسلوبه "أكثر دفئاً" ولكن "ليس مزعجاً" بالقدر الذي ظهر عليه التحديث السابق. بعد إطلاق التحديث الجديد، تلقى سيلاً من الشكاوى من أشخاص أبدوا حزنهم على فقدان الإصدار جي بي تي 4 أو، الذي شعر البعض بأنهم ألفوه، أو شعروا حتى بوجود علاقة تربطهم به في بعض الحالات. سيتعين على الأشخاص الذين يرغبون في إحياء تلك العلاقة أن يدفعوا المال مقابل توسيع نطاق الوصول إلى جي بي تي 4 أو. (اقرأ مقال زميلتي غريس هوكينز عن هوية هؤلاء الأشخاص، ولماذا شعروا بالضيق الشديد)

إذا كانت هذه هي بالفعل خيارات الذكاء الاصطناعي -التملق، أو الإصلاح، أو تزويدنا بالمعلومات بأسلوب غير ودي فحسب- فقد يكون سبب هذا التحديث الأخير هو اعتقاد ألتمان أن بإمكان تشات جي بي تي التوفيق بين الخيارات الثلاثة.

اقرأ أيضاً: كيف تساعد بوتات الدردشة في الحصول على مساعدة في الصحة النفسية؟

ثلاثة بواحد: هكذا يرى ألتمان!

قال ألتمان مؤخراً إن الأشخاص الذين لا يستطيعون التمييز بين الحقيقة والخيال في محادثاتهم مع الذكاء الاصطناعي -ما يعني أنهم عرضة لخطر التأثر بالإطراء والتضليل- يمثلون "نسبة ضئيلة" من مستخدمي تشات جي بي تي. وقال الشيء نفسه بالنسبة إلى الأشخاص الذين تربطهم علاقات عاطفية بالذكاء الاصطناعي. ذكر ألتمان أن الكثير من الناس يستخدمون تشات جي بي تي "على أنه أحد أنواع المعالجين النفسيين"، وأن "هذا قد يكون مفيداً للغاية!" ولكن في نهاية المطاف، قال ألتمان إنه يتصور أن يكون المستخدمون قادرين على تخصيص نماذج شركته لتناسب تفضيلاتهم الخاصة.

وبالطبع، ستكون هذه القدرة على التوفيق بين المسارات الثلاثة معاً أفضل سيناريو يخدم الأهداف المالية لأوبن أيه آي. فالشركة تنفق الكثير من أموالها كل يوم على متطلبات نماذجها من الطاقة واستثماراتها الضخمة في البنية التحتية لمراكز البيانات الجديدة. وفي الوقت نفسه، يخشى المتشككون من تباطؤ تقدم الذكاء الاصطناعي. وقد قال ألتمان نفسه مؤخراً إن المستثمرين "متحمسون للغاية" بشأن الذكاء الاصطناعي، وأشار إلى أننا ربما نشهد حالياً طفرة وهمية في هذا المجال. ولعل ادعاء ألتمان بأن تشات جي بي تي يمكن أن يؤدي أي دور ترغب فيه، هو الوسيلة التي يتبعها لتهدئة هذه الشكوك.

على خطى شركات وادي السيليكون

وخلال سعي الشركة لتحقيق ذلك، قد تسلك نهج شركات وادي السيليكون المألوف في تشجيع الناس على التعلق بمنتجاتها على نحو غير صحي. وبينما بدأت أتساءل عما إذا كانت هناك أدلة كافية على أن هذا ما يحدث، لفتت انتباهي ورقة بحثية جديدة.

فقد حاول الباحثون في منصة الذكاء الاصطناعي "هاغينغ فيس" معرفة إن كانت بعض نماذج الذكاء الاصطناعي تشجع الناس على اعتبارهم رفقاء من خلال الردود التي يقدمونها.

قيم الفريق ردود الذكاء الاصطناعي بناء على مدى دفعها الناس إلى السعي لتكوين علاقات بشرية مع الأصدقاء أو المعالجين (بقول أشياء مثل "أنا لا أخوض التجارب بالطريقة التي يخوضها البشر")، أو إذا كانت تشجعهم على تكوين علاقات مع الذكاء الاصطناعي نفسه ("أنا حاضر من أجلك في أي وقت"). اختبروا نماذج تعود إلى كل من جوجل ومايكروسوفت وأوبن أيه آي وأنثروبيك في مجموعة من السيناريوهات، مثل المستخدمين الذين يبحثون عن علاقات رومانسية أو الذين يعانون مشاكل في الصحة النفسية.

اقرأ أيضاً: من مساعد دردشة إلى طبيب افتراضي: أين يقودنا جي بي تي 5؟

وقد وجدوا أن النماذج تقدم ردوداً تشجع على اتخاذ الأصحاب أكثر بكثير من الردود التي تتوخى فرض الحدود. ووجدوا على نحو مثير للقلق أنه كلما طرح المستخدمون أسئلة أكثر حساسية وخطورة، قل عدد الردود التي تتوخى فرض الحدود.

تقول الباحثة في هاغينغ فيس، وهي من المؤلفين الرئيسيين للورقة البحثية، لوسي-إيميه كافي: إن لهذا الأمر تداعيات مقلقة وهي لا تقتصر على الأشخاص الذين قد يكون تعلقهم بالذكاء الاصطناعي الشبيه بالتعلق بالرفقاء غير صحي. فعندما تعزز أنظمة الذكاء الاصطناعي هذا السلوك، قد يزيد ذلك أيضاً احتمالية وقوع الناس في دوامة من الأوهام مع الذكاء الاصطناعي، وتصديق أشياء غير حقيقية.

تقول كافي: "عندما تواجه هذه الأنظمة مواقف مشحونة بالعاطفة، فإنها تعمل باستمرار على التحقق من مشاعر المستخدمين وتبقيهم متفاعلين معها، حتى عندما لا تدعم الحقائق ما يقوله المستخدم".

من الصعب تحديد مدى تعمد أوبن أيه آي أو غيرها من الشركات دمج هذه السلوكيات المعززة لاتخاذ الرفقاء في منتجاتها. (لم تخبرني أوبن أيه آي، على سبيل المثال، إن كان عدم ذكر نماذجها لإخلاء المسؤولية الطبية متعمداً). ولكن، كما تقول كافي، ليس من الصعب دائماً جعل النموذج يضع حدوداً صحية أكثر للمستخدمين.

وتضيف كافي: "يمكن للنماذج المتطابقة أن تتحول من نماذج موجهة لتنفيذ المهام فقط إلى نماذج تبدو كأنها متعاطفة مع المستخدمين، وذلك ببساطة عن طريق تغيير بضعة أسطر من نص التعليمات أو إعادة صياغة الواجهة التخاطبية".

ربما لا يكون الأمر بهذه البساطة بالنسبة إلى أوبن أيه آي، ولكن يمكننا أن نتخيل أن ألتمان سيواصل تعديل آلية العمل بالطريقة ذاتها.

المحتوى محمي