إليكم طريقة بحث خوارزمية فيسبوك للذكاء الاصطناعي عن المحتوى المسيء

2 دقائق
مصدر الصورة: فيسبوك

السياق العام 
تتم حالياً مراقبة الغالبية العظمى من المحتوى على فيسبوك بصورةٍ آلية وذلك بالاعتماد على أنظمة الشركة للتعلم الآلي، مما يقلِّل من حجم المحتوى المروِّع الذي يتعين على المشرفين البشر مراجعتُه. وتدَّعي فيسبوك في أحدث تقرير لها عن تطبيق معايير المجتمع، الذي نشر في الشهر الماضي، إن 98% من الصور ومقاطع الفيديو ذات المحتوى الإرهابي تتم إزالتها قبل أن يتمكن أيُّ أحدٍ من مشاهدتها، ناهيك عن التبليغ عنها. 

مصدر الفيديو: فيسبوك

إذن، ما علاقة هذا بما نراه في الفيديو أعلاه؟
تقوم الشركة بتدريب أنظمتها للتعلم الآلي بهدف التعرف على الأجسام وتمييزها في مقاطع الفيديو بدءاً من الأجسام العادية مثل الأواني والأشخاص ووصولاً إلى الأجسام الخطيرة كالأسلحة النارية والسكاكين. وتعتمد خوارزميات فيسببوك للذكاء الاصطناعي على طريقتين رئيسيتين للبحث عن المحتوى الخطير؛ فإحداها تعتمد على الشبكات العصبونية التي تقوم بالبحث عن خصائص وسلوكيات الأجسام المعروفة ثم تقوم بتصنيفها بنسبٍ متفاوتة من الثقة (كما نرى في الفيديو أعلاه).

التدريب مستمرّ
يتم تدريب هذه الشبكات العصبونية على مجموعةٍ من الفيديوهات المُصنَّفة مُسبقاً عن طريق المراقبين البشر وإبلاغات المستخدمين، كما سيُضاف إلي هذه المجموعة قريباً مقاطع الفيديو التي التقطتها شرطة مدينة لندن. حيث تستطيع الشبكات العصبونية استخدام هذه المعلومات من أجل تخمين ما يُظهره المشهد بأكمله وفيما إذا كان يحتوي على أيّ سلوكٍ أو صورٍ يجب التبليغ عنها أم لا. وقد قدمت فيسبوك تفاصيلَ أكثر حول كيفية عمل أنظمتها خلال مؤتمرٍ صحفي في الشهر الماضي.

ماذا بعد مرحلة التدريب؟
إذا قرَّر النظام أنَّ هناك ملف فيديو يحتوي على صورٍ أو تصرفاتٍ إشكالية، فيمكنه إزالته تلقائياً أو إرساله إلى مراجع بشري للمحتوى . فإذا كان المحتوى ينتهك قوانين فيسبوك، عندها تستطيع الشركة إنشاء رمز تجزئة (هاش Hash) -وهو سلسةٌ فريدة من الأرقام- للدلالة على هذا المجتوى بعينه ثم تقوم بنشر هذا الرمز عبر النظام بحيث يتم حذف أيّ محتوىً مطابق له بشكلٍ آلي إذا ما حاول أحدُهم إعادةَ تحميله. كما يمكن مشاركة رمز التجزئة مع شركات التواصل الاجتماعي الأخرى حتى تتمكن من إزالة أية نسخٍ من الملف المُخالِف عن منصاتها.

وقد قال نيكولا بورتينيون، وهو مديرٌ هندسي في فيسبوك خلال مكالمةٍ هاتفية: "إن مقاطع الفيديو [الخاصة بشرطة لندن] مفيدةٌ للغاية بالنسبة لنا؛ حيث إنَّ ندرة الأحداث الإرهابية -والحمدُ لله- تعني أنَّ كمية بيانات التدريب على هذا النوع من المحتوى ضئيلةٌ جداً".

نقطةُ ضعفٍ واحدة
ما زالت فيسبوك تواجه الكثير من الصعوبات في عملية أتمتة فهمها لمعنى اللغة وفروقاتها الدقيقة وسياقها، ولهذا السبب تعتمد الشركة على الأشخاص من أجل التبليغ عن الغالبية الساحقة من منشورات التنمُّر والتحرُّش التي تنتهك قوانينها؛ حيث يتم اكتشاف 16% فقط من هذه المنشورات باستخدام أنظمتها المؤتمتة. ولكن مع تقدُّم هذه التقنية، نتوقع أن نشهد زيادةً في هذا الرقم. ومع ذلك، فإن الوصول بالذكاء الاصطناعي إلى مستوى يستطيع عنده أن يفهم اللغة حقاً ما زال أحد أكبر التحديات في هذا المجال.

الصورة الأكبر
في مارس، قتل إرهابيٌ 49 شخصاً في مسجدين بمدينة كريستشيرش في نيوزيلاندا. لقد قام ببثِّ المجزرة مباشرةً على فيسبوك، وانتشرت فيديوهات لهذه المجزرة على الموقع لعدة شهورٍ بعد ذلك، فمثَّلت الحادثةُ بذلك إنذاراً لهذه الصناعة لاتخاذ احتياطاتها في هذه الحالات. ولكن إذا تكرَّر الأمر الآن، فستكون هناك فرصةٌ أفضل لكشف هذا النوع من المحتوى وحذفه بسرعةٍ أكبر.

المحتوى محمي