تختبر شركة "فيسبوك" منذ مارس/آذار الماضي، برنامجاً في الولايات المتحدة مصمماً للكشف عن الوقت الذي يقع فيه المستخدمون تحت خطر الإيذاء الذاتي، حتى يتمكن المتخصصون المدرَّبون من التدخل وتقديم المساعدة لهم. وقد أعلنت الشركة مؤخراً أنها توسّع هذا الجهد ليشمل جميع أنحاء العالم من أجل التنبؤ بميول الانتحار لدى مستخدمي "فيسبوك".
هل تستطيع "فيسبوك" التنبؤ بميول الانتحار لدى المستخدمين؟
يقدّم مارك زوكربيرغ، الرئيس التنفيذي لشركة "فيسبوك"، هذا البرنامج بالفعل على أنه انتصار كبير للآلات. فقد كتب في منشور له على صفحته في فيسبوك "هذا استخدام جيد للذكاء الاصطناعي: المساعدة في منع الانتحار". وتابع زوكربيرغ:
بدءاً من اليوم، نقوم بترقية أدوات الذكاء الاصطناعي لتحديد متى يعبّر شخص ما عن أفكار تدور حول الانتحار في موقع فيسبوك حتى نتمكن من مساعدة هؤلاء الأشخاص في الحصول على الدعم الذي يحتاجونه بسرعة. وفي الشهر الماضي وحده، ساعدتنا أدوات الذكاء الاصطناعي هذه، في التواصل مع المسعفين بسرعة في أكثر من 100 حالة.
مع كل الخوف من الضرر المحتمَل للذكاء الاصطناعي في المستقبل، من الجيد أن نذكّر أنفسنا كيف يساعدنا بالفعل في إنقاذ أرواح الناس اليوم.
وقد تردد صدى هذه النبرة الموقرة في التغطية الصحفية لهذا الخبر. إذ استهلّ منشور "تيك كرانش" بالقول "هذا برنامجٌ لإنقاذ الأرواح"، والذي يبدو أنه نُشر حتى قبل منشور زوكربيرغ. "نشكّل تكنولوجيا فيسبوك الجديدة القائمة على الذكاء الاصطناعي عملية "تحرًّ وقائي" إذ إنها ستقوم بمسح كافة المنشورات بحثاً عن أنماطِ أفكارٍ انتحارية، وعند الضرورة ترسل موارد الصحة النفسية إلى المستخدم المهدد بالخطر أو أصدقائه، أو تتصل بالمسعفين المحليين".
يستحق هذا المشروع الاحتفاء به فهو حقاً يسهم في إنقاذ الأرواح. ولكن لا يزال من السابق لأوانه الاحتفال بالنصر قبل إجراء أبحاث موثوقة حول مدى نجاحه في عمله. ولا يقدم زوكربيرغ المساعدة في هذا المجال إذ إنه يؤطّر المشروع ضمن مجال تعزيز صورة الذكاء الاصطناعي أكثر من اعتباره محاولة متواضعة لمعالجة مشكلة معقدة ومميتة.
لا يقلل كلامنا هذا بالطبع من أهمية ما تفعله شركة "فيسبوك" أو من أهمية نواياها. إذ من الجيد أن نرى الشركة تأخذ على عاتقها تنفيذ مشروع بدافعٍ من الرغبة في الاهتمام بمستخدميها أكثر من أن يكون بدافع تعزيز هدفها الرئيسي. وتصرّح "فيسبوك" أنها طورت أساليب عمل هذه التكنولوجيا الجديدة بالتعاون مع خبراء من خارج الشركة ومع خطوط المساعدة الأخرى. مما يوحي بأن الأمر لا يقتصر على اختراع تقنية جديدة ومتابعة المشوار بكل بساطة (وهو تاريخياً خطأ شائع في مينلو بارك حيث يقع مختبر توماس إديسون).
إن سمعة شركة "فيسبوك" في استغلالها لأي جزء صغير من البيانات تعني أنه حتى جهودها لإنقاذ الحياة لا بد أن تجتذب ردوداً منزعجة من بعض الجهات. ولكن في هذه المرحلة، لا يوجد سبب للاشتباه في خطة أكبر أو مؤامرة بشعة قيد التنفيذ هنا. إذا كنتَ ترغب في اتخاذ الأمر على محمل التهكّم، يكفي أن تقول إن الشركة تدرك أنه ليس من مصلحتها أن يبثّ الناس انتحارهم مباشرة على فيسبوك. وهذا، للأسف، ليس مشكلة افتراضية.
"تقنية التعرّف على الأنماط"
على أي حال، تبدو التكنولوجيا هنا أقل إثارة للإعجاب (أو للقلق) مما قد يتوقعه المرء من عناوين الصحف حول "الذكاء الاصطناعي". تبين ذكر "فيسبوك" أنها تستخدم "تقنية التعرّف على الأنماط" للمساعدة في تحديد المنشورات والفيديوهات التي تُبث على الهواء والتي قد "تعبر عن أفكارٍ ميالة للانتحار". إذاً، ما هي الأنماط التي يتعرّف عليها البرنامج ؟ كل ما قالته "فيسبوك" حتى الآن هو أنها تلتقط إشارات في نص المنشور والتعليقات: "على سبيل المثال يمكن أن تشكّل تعليقات مثل "هل أنت على ما يرام؟" و"هل يمكنني المساعدة؟" "مؤشرات قوية". ربما هناك المزيد ولكن الشركة لا تكشف عنه. ولكن من الناحية الفنية، يبدو الأمر وكأنه أشياء أساسية بسيطة، لا يمكن مقارنتها حتى بتقنيات الذكاء الاصطناعي للتعرف الاستباقي.
إنه أمر جيد في مثل هذه الحالة، لأن "فيسبوك" لا تحتاج إلى الذكاء الاصطناعي لتحديد الأشخاص المعرضين للخطر بشكل قريب من الدقة الكاملة. كل ما تحتاج أن يفعله البرنامج هو وضع علامة على المنشورات (وفيديوهات البث المباشر) التي قد تشير إلى وجود مشكلة. عند هذه النقطة، يمكن للموظفين البشريين المدربين في "فيسبوك" تحري الأمر ومعرفة ما إذا كان هناك سبب جوهري للقلق. هذه هي العملية نفسها التي استخدمتها شركة "فيسبوك" من قبل عندما كان يشير المستخدمون إلى منشورِ شخص ما بأنه مثير للقلق. وبعبارة أخرى، فإن كل ما يفعله الذكاء الاصطناعي هنا هو مجرد توليد مؤشرات، وليس اتخاذ قرار فعلي بشأن ما إذا كان التدخل مبرراً أم لا. ربما يكون هذا الأمر مفيداً بشكل خاص في حالات مثل البث المباشر، حيث يمكن أن تعني سرعة التدخل الفرق بين الحياة والموت.
إن الرقابة البشرية الواضحة على هذه التقنية أمر مطمئن، حيث إن الذكاء الاصطناعي يميل إلى ارتكاب الأخطاء عندما يأخذ دوراً قيادياً بدلاً من دور داعم. ولكن من المخادع قليلاً لزوكربيرغ أن يقول إنه يجب أن يخفف مخاوفنا حول الجوانب السلبية المحتملة للذكاء الاصطناعي، سواء الآن أو في المستقبل. وبطبيعة الحال يمكن استخدام برامج التعلم الآلي لغايات نبيلة. لكن ما يقلق الناس هو الضرر الذي يمكن أن يقع عندما يُساء استخدام هذه البرامج.
يبدو تبجّح زوكربيرغ فارغاً، لا سيما بالنظر إلى أن شركة "فيسبوك" توفر دعماً قليلاً نسبياً للادعاء بأن البرنامج، في الواقع، إنقاذ للأرواح – ما عدا الحادثة الوحيدة المذكورة في الفيديو أعلاه، والتي تنمّ عن صدق المشاعر.
استخدام موارد الصحة النفسية للمستخدمين
إن التدخل باستخدام موارد الصحة النفسية عندما يكون شخص ما على وشك الانتحار هو أمر يستحق بذل الجهد بالتأكيد، شريطة أن يتم ذلك بعناية. غير أن نجاح حالات التدخل تلك يعتمد على إثبات مدى توجيهها وصحة توقيتها ودقة فعاليتها. لم تخبرنا شركة "فيسبوك" حتى الآن عن تلك الأمور حقاً. ربما تفعل ذلك في بعض الدراسات المستقبلية، ولكن الشركة لديها سجل سيئ جداً عندما يتعلق الأمر بمشاركة البيانات مع الباحثين المستقلين. (بالطبع، هناك مخاوف تتعلق بالخصوصية المشروعة عندما يتعلق الأمر بمعلومات عن الصحة النفسية للأشخاص).
إنه لشيء رائع أن تنجح شركة "فيسبوك" في ربط أكثر من 100 مستخدم مع المسعفين خلال الشهر الماضي، كما كتب زوكربيرغ. كما أن إنقاذ بعض الأشخاص الذين كانوا قد انتحروا لولا هذا التدخل يغفر العديد من العيوب. ومع ذلك، إذا وجّهت هذه التقنية معظم تدخلاتها على الأشخاص الخطأ - أو حتى الأشخاص الذين من المحتمل أن يكونوا مناسبين لهذه التدخلات ولكن في الوقت الخطأ - قد لا تكون هذه التدخلات مفيدة كما يأمل المرء. وفي أسوأ الأحوال، يمكن أن يؤدي هذا الأمر إلى الإشغال الكبير للخطوط الساخنة المخصصة للأزمات وتحوّل الموارد عن الآخرين الذين يحتاجون إليها أكثر.
وفي نهاية الحديث عن التنبؤ بميول الانتحار لدى مستخدمي "فيسبوك"، من الجيد أن نرى شركة "فيسبوك" تستخدم بعض التكنولوجيا من أجل رفاهية مستخدميها. إلا أنه كان من الأسهل لنا تهنئة الشركة لو لم تكن في عجلة من أمرها إلى هذا الحد الكبير لتهنئة نفسها.