الخطة
أعلنت فيسبوك عن توظيفها لمتعاقدين بدوام جزئي للتدقيق السريع للمنشورات والتحقق من صحتها، وذلك في إطار برنامج تدريبي في الولايات المتحدة على مدى الأشهر المقبلة. وتقوم الفكرة على تسريع عمل أنظمة تدقيق الحقائق العاملة حالياً في فيسبوك، والسماح لها بالعثور على الادعاءات الزائفة ودحضها بفعالية أكبر.
كيف ستُنفَّذ الخطة
يقوم نظام التعلم الآلي في فيسبوك بتحديد المنشورات التي يُحتمل أنها تحوي معلومات زائفة وفق عدة دلالات. وعلى سبيل المثال، فقد تعبر التعليقات على المنشور عن عدم التصديق، أو قد تكون الصفحة التي شاركته ذات تاريخ في مشاركة المعلومات الخاطئة. وسيتم تقديم هذه المنشورات إلى المجموعة الجديدة من المتعاقدين (الذين تطلق عليهم فيسبوك اسم "المدققين المجتمعيين")، والذين سيجرون بعض الأبحاث للعثور على مصادر أخرى تؤكد أو تدحض المحتوى.
فإذا قِيل في منشورٍ ما إن أحد المشاهير قد تُوفي، يقوم المدققون بالتحقق من المصادر الإخبارية الموثوقة لمعرفة ما إذا كانت قد أوردت هذه القصة. بعد ذلك، تُقدم النتائج إلى منظومة التدقيق في فيسبوك، لمحاولة لتحديد القصص التي يجب تدقيقها وتقييمها بشكل عاجل.
أين المشكلة؟
قد يبدو من المنطقي أن تحاول فيسبوك تسريع عملية التدقيق، ولكنها ستعتمد على التعهيد لهواة يعملون بدوام جزئي بأجور منخفضة بدلاً من توظيف مدققين محترفين. وبشكل مثير للحيرة، وعدت فيسبوك أن تختار لهذه المهمة مجموعة من الناس الذين يمثلون مستخدمي فيسبوك في الولايات المتحدة، بدلاً من سكان الولايات المتحدة بشكل عام، وكأن الحقيقة الموضوعية تتعلق بالتوازن الديمغرافي.
الصورة الشاملة
يعاني نظام التدقيق في فيسبوك من مشاكل عميقة؛ فهو يعتمد بشكل كامل على التعهيد لأطراف خارجية (مثل الصحف ومجموعات الدراسات وغيرها من المنظمات التي تقوم بهذا النوع من العمل)، كما أنه مليء بالتناقضات. ولا يوجد هذا النظام سوى في بعض البلدان التي يعمل فيسبوك فيها فقط، وغالباً ما يعتمد على منظمة واحدة وحسب، مما يعني أن انسحاب هذه المنظمة يعني توقف التدقيق في تلك المنطقة (كما حدث في هولندا الشهر الماضي).
ماذا عن التحيز؟
تعتقد فيسبوك أن تعهيد عملية التدقيق إلى أطراف خارجية يسمح لها بالتملص من المسؤولية عن أية ادعاءات بالتحيز، ولكن الشركة ما تزال تختار وتحدد السياسات التي تتبعها هذه المؤسسات الخارجية. وعلى سبيل المثال، فإن فيسبوك تستثني الإعلانات السياسية من التدقيق، وهو ما يعتبر بحد ذاته قراراً تحريرياً. ولكن فيسبوك لن تعترف بهذا؛ لأنه سيفتح المجال أمام الادعاءات التي تقول إن فيسبوك تلعب دور مؤسسة للنشر، وأنها بالتالي مسؤولة عن المحتوى المنشور على منصتها. ومن غير المرجح أن تكون السياسة الجديدة مُرضية لمن يقولون إن الشركة لا تفعل ما يكفي لإيقاف انتشار المعلومات الزائفة.