تخيل لو توقفت فيسبوك عن مراقبة المحتوى على موقعها الآن، بحيث يمكن لأي شخص نشر أي شيء يريده. تشير التجربة إلى أن الموقع سيتحول سريعاً إلى جحيم تغزوه منشورات الإزعاج والتنمُّر والجرائم والممارسات الإرهابية بقطع الرؤوس ونصوص النازية الجديدة وصور الاعتداء الجنسي على الأطفال. وفي هذا السيناريو التخيّلي، فإن أفواجاً كبيرة من المستخدمين ستهجر الموقع ليلحق بها أصحاب الإعلانات المُربحة.
ورغم أن مراقبة المحتوى تحتل هذه الدرجة من الأهمية، فإنها لا تحظى بحقّ قدرها من الاهتمام؛ فالغالبية الساحقة من مراقبي المحتوى على فيسبوك -البالغ عددهم 15,000 شخص، والذين يقضون يومهم في تحديد ما هو مسموح وممنوع على المنصة- لا يعملون لدى شركة فيسبوك. ويتم توكيل مهمة الإشراف على المحتوى بالكامل لشركات خارجية تستخدم عمالاً مؤقتين بعقود غير مستقرة في أكثر من 20 موقعاً حول العالم. وينبغي على هؤلاء مراجعة مئات المنشورات في اليوم، والكثير منها صادم للغاية. وعلاوة على ذلك، هناك الكثير من الأخطاء التي تشوب هذه العملية على الرغم من اعتماد الشركة على أدوات الذكاء الاصطناعي لفرز المنشورات التي تستدعي اهتمام المراقبين. حتى إن فيسبوك نفسها قد اعترفت بوجود الأخطاء بمعدل 10%؛ سواء كانت في الإبلاغ بشكل غير صحيح عن منشورات تنبغي إزالتها في حين كان يجب إبقاؤها أو العكس.
وإذا ما أخذنا في الحسبان أنه لا بد للمراجعين من أن يطّلعوا على ثلاثة ملايين منشور يومياً، نستخلص أن هناك 300,000 خطأ من هذا النوع في اليوم. وقد تؤدي بعض الأخطاء إلى عواقب وخيمة؛ فعلى سبيل المثال، استخدم أفراد من جيش ميانمار موقع فيسبوك للتحريض على الإبادة الجماعية ضد الأقلية المسلمة من الروهينجا في عامي 2016 و2017. واعترفت الشركة في وقت لاحق بأنها فشلت في فرض سياساتها الخاصة التي تحظر خطاب الكراهية والتحريض على العنف.
ووفقاً لتقرير جديد صادر عن مركز ستيرن للشركات وحقوق الإنسان التابع لجامعة نيويورك، إذا أردنا تحسين كيفية تنفيذ المراقبة على فيسبوك، فإنه ينبغي على الشركة استقدام مراقبي المحتوى إلى داخل الشركة وتحويلهم إلى موظفين بدوام كامل ومضاعفة أعدادهم.
ويقول مؤلف التقرير بول م. باريت، نائب مدير مركز ستيرن: "لا يمكن تشبيه مراقبة المحتوى بوظائف التعهيد الخارجي الأخرى مثل الطهي أو التنظيف، إنها وظيفة جوهرية في عمل وسائل التواصل الاجتماعي، وهذا يجعل من الغريب إلى حدٍّ ما أن يتم التعامل معها كما لو كانت مشكلة هامشية أو مشكلة شخص آخر".
إذن، لماذا يتعامل قادة فيسبوك مع مراقبة المحتوى بهذه الطريقة؟ يقول باريت إن أحد أسباب ذلك يعود جزئياً إلى التكلفة؛ حيث إن اعتماد توصيات التقرير ستكون مكلفة للغاية بالنسبة للشركة، ومن المرجح أن تصل إلى عشرات الملايين من الدولارات (ومع ذلك، لوضع الأمور في نصابها، فإن تطبيق هذه التوصيات سيُدرّ أرباحاً بمليارات الدولارات سنوياً). لكنّ هناك سبباً ثانياً أكثر تعقيداً؛ إذ إن "نشاط مراقبة المحتوى لا يتفق مع الصورة التي ترسمها شركات وادي السيليكون لنفسها" بحسب قول باريت، ويضيف: "هناك أنواع معينة من الأنشطة التي تحظى بتقدير وتمجيد هائلَين من قبيل: ابتكار المنتجات والتسويق الذكي والهندسة... أما عالم مراقبة المحتوى المليء بالتفاصيل الشائكة فلا ينسجم مع ذلك".
ويعتقد باريت أن الوقت قد حان لكي تتعامل فيسبوك مع المراقبة باعتبارها جزءاً مركزياً من أعمالها. ويقول إن رفع مكانة الرقابة وأهميتها بهذه الطريقة من شأنه أن يساعد على تجنب الوقوع في الأخطاء الكارثية مثل التي ارتُكبت في ميانمار، وزيادة المساءلة، وحماية الموظفين بشكل أفضل من تضرُّر صحتهم العقلية.
يبدو أن مراقبة المحتوى ستنطوي دوماً على التعرض لبعض المواد المروعة، هذه حقيقة لا مفرّ منها حتى لو تم توطين المهمة داخل الشركة. ومع ذلك، هناك الكثير مما يمكن أن تقوم به الشركة لتخفيف المشكلة مثل: إجراء فحص أفضل للمراقبين للتأكد من إدراكهم الفعلي لمخاطر الوظيفة، وضمان حصولهم على أفضل رعاية واستشارة صحية متاحة. ويرى باريت أنه قد يتوجب على جميع موظفي فيسبوك القيام بمهمة مراقبة المحتوى لمدة عام على الأقل كنوع من "جولة اطلاع على الوظائف داخل الشركة" لمساعدتهم على فهم تبعات وتأثيرات قراراتهم.
ويقترح التقرير ثماني توصيات لشركة فيسبوك:
- التوقف عن تعهيد مراقبة المحتوى لجهات خارجية ورفع مكانة المراقبين داخل الشركة.
- مضاعفة عدد المراقبين لتحسين جودة مراجعة المحتوى.
- توظيف أشخاص للإشراف على المحتوى والتحقق من الحقائق، ثم تقديم التقارير مباشرة إلى الرئيس التنفيذي أو مدير العمليات.
- توسيع نطاق مراقبة المحتوى في البلدان المعرضة لخطر انتشار المحتوى المحظور في آسيا وأفريقيا وأماكن أخرى.
- تزويد جميع المراقبين برعاية طبية عالية الجودة في أماكن عملهم، بما في ذلك زيارة الأطباء النفسيين.
- تمويل الأبحاث حول المخاطر الصحية المتعلقة بمراقبة المحتوى، ولا سيما اضطراب ما بعد الصدمة.
- استكشاف اللوائح التنظيمية الحكومية المُصمَّمة بدقة فيما يتعلق بالمحتوى المؤذي.
- التوسع الكبير في تدقيق الحقائق لدحض المعلومات الخاطئة.
إن أقل ما يمكن وصف هذه الاقتراحات به هو أنها طَموحة. وعندما تواصلنا مع فيسبوك لإبداء التعليق على هذه الاقتراحات، لم تناقش الشركة إمكانية التفكير في تطبيقها. ومع ذلك، قال متحدث باسم الشركة إن أسلوبها الحالي يتيح "إمكانية التكييف السريع لتركيز العاملين لدينا حسب الحاجة"، مضيفاً أن "هذا يمنحنا القدرة على ضمان امتلاكنا الخبرة اللغوية الصحيحة والقدرة على التوظيف بسرعة في مناطق مختلفة عندما تظهر احتياجات جديدة أو عندما يستدعي وضعٌ ما ذلك في جميع أنحاء العالم".
لكن باريت يرى أن التجربة الأخيرة التي أجرتها فيسبوك استجابةً لأزمة فيروس كورونا تبيّن إمكانية التغيير؛ حيث أعلنت فيسبوك أنه نظراً لعدم تمكن مشرفي المحتوى من الوصول إلى مكاتب الشركة، فإنها ستنقل المسؤولية إلى الموظفين الداخليين للتحقق من بعض فئات المحتوى الحساسة.
ويختم باريت قائلاً: "أرى أن هذا الإجراء يمثل مؤشراً قوياً على أن زوكربيرج في وقت الأزمة اعتمد على الأشخاص الذين يثق فيهم: ألا وهم موظفوه بدوام كامل، ربما يمكن اعتبار ذلك أساساً لإطلاق نقاش داخل فيسبوك حول تعديل طريقة تناولها لمسألة مراقبة المحتوى".