تؤكد دراسةٌ جديدة ما كنا نشكُّ فيه لسنوات: إن يوتيوب تمثل قناةً لتوجيه الناس نحو التطرف والكراهية.
كيف توصلت الدراسة إلى هذه النتيجة؟
أجرى مؤلفو الدراسة تحليلاً لأكثر من 330,000 مقطع فيديو على ما يقارب 350 قناة على يوتيوب، ثم صنَّفوها يدوياً تبعاً لنظامٍ صمَّمه اتحاد مكافحة التشهير. وتم تصنيف كلٍّ من هذه المقاطع إلى إحدى المجموعات التالية: وسائط إعلامية (أو ما نعتقد أنه أخبارٌ واقعية) أو "تطرف خفيف" أو الويب الفكرية المظلمة (وهي مجموعة من المفكرين والأكاديميين والإعلاميين المتمردين الذين يعارضون اتجاه التفكير العام حول مختلف المواضيع مثل الهجرة والدين والإجهاض وغيرها ويتسمون بآرائهم المثيرة للجدل) أو اليمين المتطرف.
المجموعات
غالباً ما يرتبط اليمين المتطرف بفكرة تفوُّق العرق الأبيض التي تدعو إلى إنشاء دولةٍ بيضاء العرق. أما مقاطع الفيديو المصنفة ضمن مجموعة "الويب الفكرية المظلمة"، فهي تُسوِّغ فكرة تفوُّق العرق الأبيض مستندةً إلى علم تحسين النسل و"علم الأعراق". بينما يزعم أعضاء مجموعة التطرف الخفيف في فيديوهاتهم أنهم لا يدعمون فكرة تفوُّق العرق الأبيض، لكنهم يؤمنون بنظريات المؤامرة حول "الاستبدال" من قِبل الأقليات العرقية.
بوابة عبور
وضع مؤلفو الدراسة فرضيةً تقول إن مجموعتي التطرف الخفيف والويب الفكرية المظلمة غالباً ما تكونان بمنزلة بوابة العبور إلى الأيديولوجيات الأكثر يمينيةً وتطرفاً. ثم قاموا باختبار هذه الفرضية من خلال تتبع حسابات الأشخاص الذين كتبوا 72 مليون تعليقٍ على حوالي مليوني فيديو خلال الفترة بين مايو ويوليو من العام الماضي. لقد جاءت النتائج مثيرةً للقلق؛ فمن بين الأشخاص الذين علَّقوا على المقاطع المصنَّفة ضمن مجموعة التطرف الخفيف، أظهر 26% منهم نزعةً للانجراف نحو مقاطع اليمين المتطرف وبعد ذلك يبدؤون بالتعليق عليها.
لعبة إلقاء اللوم
من السهل إلى حدٍّ ما الوصول إلى محتوى مجموعتي الويب الفكرية المظلمة والتطرف الخفيف من خلال إجراء عملية بحثٍ بسيطة، ولكن من الصعب العثور على مقاطع اليمين المتطرف بالنسبة للمستخدمين المبتدئين. ومع ذلك، فقد وجد الباحثون أنَّ خوارزمية يوتيوب قامت في أكثر الأحيان بتوجيه المستخدمين الذين يبحثون عن كلماتٍ مفتاحية محددة نحو محتوى أكثر عنفاً وتطرفاً.
يزداد الطين بلة
وجد الفريق، من المعهد الفدرالي السويسري للتكنولوجيا في لوزان، دليلاً على تنامي التداخل بين المتطرفين اليمينيين من جهة وغيرهم ممن ينخرطون في متابعة مواد الويب الفكرية المظلمة والتطرف الخفيف من جهةٍ أخرى. ويقدِّر المؤلفون أن حوالي 60,000 من الأشخاص الذين بدؤوا بالتعليق على محتوى مجموعتي الويب الفكرية المظلمة والتطرف الخفيف قد انتقلوا إلى مشاهدة فيديوهات اليمين المتطرف والتعليق عليها خلال فترةٍ تقارب 18 شهراً. وتمَّ تقديم الدراسة في مؤتمر العدالة والمساءلة والشفافية 2020 في برشلونة منذ فترةٍ وجيزة.
ما زلنا نجهل الكثير عن عملية الانجراف نحو التطرف على يوتيوب
يعود ذلك لسببٍ واحد؛ هو أننا لا نعلم بالضبط ما العوامل التي تدفع الناس للانتقال من مشاهدة مواد التطرف الخفيف إلى مشاهدة مواد أقصى اليمين المتطرف. وهذا يعود جزئياً إلى أن يوتيوب تفرض قيوداً على الوصول إلى بيانات نظام اقتراح الفيديوهات. كما أنه من الممكن أن الناس الذين يدخلون إلى يوتيوب قد تطرَّفوا سابقاً من خلال مصدرٍ خارجي غير متعلقٍ بيوتيوب. لكن يشير هذا البحث إلى أن خوارزميات اقتراح المحتوى على يوتيوب قد تلعب دوراً محورياً في هذا الأمر.
خلفية الخبر
لطالما واجهت يوتيوب صعوبةً كبيرة في تحقيق التوازن بين الحفاظ على حرية التعبير ومعالجة مشكلة خطاب الكراهية، ورغم أن الشركة قد اتخذت بعض الخطوات الأولية من خلال حظر بعض القنوات -وأبرزها قناة إنفووارس التابعة لأليكس جونز- لكنَّ منتقديها يقولون إنَّ هذه الإجراءات ليست كافية.
وقالت يوتيوب في بيانٍ صحفي إنها تعمل على حلّ هذه المشاكل؛ حيث جاء في البيان: "على مدى السنوات القليلة الماضية... قمنا بتعديل خوارزميات البحث والاستكشاف لدينا بحيث تَضْمن ظهور المحتوى الموثوق بشكلٍ أكبر وتمييزه بشكلٍ بارز في الاقتراحات ونتائج البحث، وبدأنا بتخفيف اقتراحات المحتوى الرمادي (أي ما يمكن تصنيفه على حدود التطرف) الذي قد يضلِّل المستخدمين بطرقٍ مؤذية".
وأضاف الناطق الرسمي باسم يوتيوب أن الشركة تشكِّك في منهجية الدراسة، وأن هذا البحث لا يأخذ بعين الاعتبار التحديثات الأخيرة التي أجرتها يوتيوب على سياستها المتعلقة بخطاب الكراهية أو نظام اقتراح المحتوى. وأردف الناطق باسم الشركة قائلاً: "نعترض بشدةٍ على المنهجية المتبعة في البحث الجديد والبيانات المستخدمة فيه، كما نعترض بشدة على الاستنتاجات التي توصَّل إليها".