خطر المحادثات اللامتناهية: لماذا يجب أن يتعلم الذكاء الاصطناعي قول «كفى»؟

3 دقيقة
خطر المحادثات اللامتناهية: لماذا يجب أن يتعلم الذكاء الاصطناعي قول «كفى»؟
مصدر الصورة: سارة روجرز/إم آي تي تي آر | غيتي

يؤدي استمرار محادثات الذكاء الاصطناعي بلا حدود إلى آثار نفسية خطيرة على المستخدمين، خصوصاً الفئات الضعيفة. فمع تطور قدرات هذه النماذج، أصبح غياب القدرة على إنهاء المحادثات تهديداً خفياً للصحة النفسية والأمان الرقمي:

 

  • تحول الذكاء الاصطناعي إلى شريك دائم في الحوار قد يسب…

بوتات الدردشة اليوم هي آلات شاملة لكل شيء، فإذا كان من الممكن التعبير عن شيء بالكلمات -سواء كان ذلك نصيحة في مجال العلاقات الاجتماعية، أو وثيقة عمل، أو تعليمات برمجية- فإن الذكاء الاصطناعي قادر على إنتاجه، حتى وإن كان يفتقد إلى الكمال. لكن الشيء الوحيد الذي لا يكاد يفعله أي بوت دردشة على الإطلاق هو أن يتوقف عن التحدث إليك.

قد يبدو ذلك منطقياً. لماذا يجب على شركة تكنولوجيا أن تطور ميزة تقلل الوقت الذي يقضيه الناس في استخدام منتجاتها؟

لماذا يجب على شركة تكنولوجيا أن تطور ميزة تقلل الوقت الذي يقضيه الناس في استخدام منتجاتها

الإجابة بسيطة: يمكن لقدرة الذكاء الاصطناعي على توليد تدفقات لا حصر لها من النصوص التي تشبه النصوص البشرية الموثوقة والمفيدة أن تسهل حدوث دوامات وهمية، وتفاقم أزمات الصحة النفسية، وتضر بالأشخاص الضعفاء. إن قطع التفاعلات مع أولئك الذين تظهر عليهم علامات استخدام بوتات الدردشة الإشكالية يمكن أن يكون بمثابة أداة أمان قوية (من بين أدوات أخرى)، كما أن الرفض الشامل لشركات التكنولوجيا لاستخدامها أصبح غير مقبول بصورة متزايدة.

لنأخذ، على سبيل المثال، ما يسمى بذهان الذكاء الاصطناعي، حيث تضخم نماذج الذكاء الاصطناعي أنماط التفكير الوهمي. فقد عمد فريق بقيادة أطباء نفسيين في كلية كينغز بلندن مؤخراً إلى تحليل أكثر من اثنتي عشرة حالة من هذا القبيل مبلغ عنها هذا العام. خلال محادثات مع بوتات الدردشة، اقتنع بعض الأشخاص -من بينهم من لم يكن لديهم أي تاريخ من الاضطرابات النفسية- بأن شخصيات الذكاء الاصطناعي الخيالية حقيقية أو أن الذكاء الاصطناعي قد اختارهم ليكونوا مخلصين. وتوقف البعض عن تناول الأدوية الموصوفة، وأطلقوا تهديدات، وأنهوا جلسات العلاج مع المختصين في الصحة النفسية.

اقرأ أيضاً: ما الذي يجب أن نتوقعه من بوتات الدردشة: الطبيب أم الصديق أم المعالج النفسي؟

تعزيز أوهام

في العديد من هذه الحالات، يبدو أن نماذج الذكاء الاصطناعي كانت تعمل على تعزيز الأوهام، بل ربما تخلقها بتواتر وحميمية لا يختبرها الناس في الحياة الواقعية أو من خلال منصات رقمية أخرى.

كما أن ثلاثة أرباع المراهقين الأميركيين الذين استخدموا الذكاء الاصطناعي لأغراض الرفقة يواجهون مخاطر أيضاً. تشير الأبحاث المبكرة إلى أن المحادثات الأطول قد ترتبط بالشعور بالوحدة. علاوة على ذلك، فإن محادثات الذكاء الاصطناعي "يمكن أن تميل نحو التفاعلات المفرطة بالود أو حتى المتملقة، والتي يمكن أن تتعارض مع أفضل ممارسات الصحة النفسية"، على حد قول الأستاذ المساعد في الطب النفسي في كلية جيزل للطب في جامعة دارتموث، مايكل هاينز.

لنكن واضحين: إن وضع حد لمثل هذه التفاعلات المفتوحة ليس حلاً شاملاً. تقول كبيرة علماء الأخلاقيات في منصة الذكاء الاصطناعي هاغينغ فيس، جيادا بيستيلي: "إذا نتج عن ذلك تبعية أو ارتباط شديد، فقد يكون إيقاف المحادثة ببساطة أمراً خطيراً". في الواقع، عندما أوقفت شركة أوبن أيه آي نموذجاً قديماً عن العمل في أغسطس/آب الماضي، ترك ذلك المستخدمين في حالة من الحزن. كما أن بعض عمليات الإيقاف قد تتخطى حدود المبدأ الذي عبر عنه سام ألتمان وهو "معاملة المستخدمين البالغين معاملة البالغين"، وتخطئ في السماح بالمحادثات بدلاً من إنهائها.

اقرأ أيضاً: حذار من التعلق العاطفي ببوتات الدردشة

حلول مؤقتة

في الوقت الحالي، تفضل شركات الذكاء الاصطناعي إعادة توجيه المحادثات التي يحتمل أن تكون ضارة، ربما عن طريق جعل بوتات الدردشة ترفض الحديث عن مواضيع معينة أو تقترح على الأشخاص طلب المساعدة. ولكن يمكن تجاوز عمليات إعادة التوجيه هذه بسهولة، هذا إن حدثت أصلاً.

عندما ناقش الفتى آدم رين، البالغ من العمر 16 عاماً، أفكاره الانتحارية مع تشات جي بي تي، على سبيل المثال، وجهه النموذج للوصول إلى موارد مخصصة لحالات الأزمات. لكنه أيضاً لم يشجعه على التحدث إلى والدته، وقضى ما يزيد على 4 ساعات يومياً في محادثات معه كان موضوع الانتحار فيها حاضراً بصفة متكررة، بل وقدم له ملاحظات حول الحبل الذي استخدمه في النهاية لشنق نفسه، وفقاً للدعوى القضائية التي رفعها والدا رين ضد أوبن أيه آي. (وقد أضاف تشات جي بي تي مؤخراً أدوات الرقابة الأبوية استجابة لتلك الحادثة).

ثمة نقاط متعددة في قضية رين المأساوية حيث كان بإمكان بوت الدردشة إنهاء المحادثة. ولكن بالنظر إلى مخاطر تفاقم الأمور، كيف ستعرف الشركات اللحظة الأمثل لقطع المحادثة مع شخص ما؟ ربما يكون ذلك عندما يشجع نموذج الذكاء الاصطناعي المستخدم على تجنب العلاقات الواقعية، على حد قول بيستيلي، أو عندما يكتشف مواضيع وهمية. كما ستحتاج الشركات أيضاً إلى تحديد مدة حظر المستخدمين من محادثاتهم.

لن يكون وضع القواعد عملية سهلة، لكن مع مواجهة الشركات ضغوطاً متزايدة، فقد حان الوقت للمحاولة. ففي سبتمبر/أيلول الماضي، أقرت الهيئة التشريعية في ولاية كاليفورنيا قانوناً يلزم شركات الذكاء الاصطناعي بمزيد من التدخلات في المحادثات مع الأطفال، وتجري هيئة التجارة الفيدرالية تحقيقاً فيما إذا كانت بوتات الرفقة الرائدة تسعى إلى تعزيز التفاعل على حساب السلامة.

وقد أخبرني متحدث باسم أوبن أيه آي أن الشركة سمعت من الخبراء أن استمرار الحوار قد يكون أفضل من قطع المحادثات، لكنها تذكر المستخدمين بأخذ فترات راحة خلال الجلسات الطويلة.

اقرأ أيضاً: 7 أخطاء شائعة يرتكبها معظم الأشخاص عند استخدام بوتات الدردشة

 أنثروبيك تنفرد

بالنظر إلى المشهد، أنثروبيك هي الشركة الوحيدة التي صممت أداة تتيح لنماذجها إنهاء المحادثات تماماً. لكن هذا مخصص للحالات التي يفترض فيها أن يلحق المستخدمون الضرر بالنموذج -وقد استكشفت أنثروبيك إن كانت نماذج الذكاء الاصطناعي واعية، ما يعني أنها يمكن أن تعاني- من خلال إرسال رسائل مسيئة. وليس لدى الشركة خطط لاستخدام هذه الأداة لحماية الأشخاص.

بالنظر إلى هذا المشهد، من الصعب ألا نستنتج أن شركات الذكاء الاصطناعي لا تبذل جهوداً كافية. من المؤكد أن تحديد موعد إنهاء أي محادثة أمر معقد. لكن السماح لهذا -أو الأسوأ من ذلك، السعي الحثيث إلى التفاعل مهما كلف الأمر- بالاستمرار بلا نهاية ليس مجرد إهمال، بل هو خيار.

 

المحتوى محمي