خوارزمية تقوم بكشف عمليات استبدال الوجوه في الفيديوهات بشكل آلي

2 دقائق
هل تستطيع تمييز الصور الحقيقية من المزيفة؟ الجواب في الأسفل

أصبح من الممكن مؤخراً أخذ وجه أو تعبير لشخص ما وتركيبه على فيديو لشخص آخر. وبدأ البعض يستخدمها على وجه الخصوص في فيديوهات إباحية مزيفة في مواقع مثل ريديت وفورتشان، حيث يتم تركيب وجوه مشاهير على أجساد أخرى.

يوجد لهذه المسألة تبعات هامة. وعلى الأقل، فهي تسمح بتشويه سمعة من يتعرضون لهذا النوع من التزييف. وتمثل مشكلة لأنظمة تحديد الهوية بالقياس الحيوي، وتهدد بفقدان الثقة العامة بالفيديوهات عموماً. وبالتالي، ظهرت الحاجة الملحة إلى طريقة سريعة ودقيقة لكشف هذه الفيديوهات.

وهنا يأتي دور أندرياس روسلر وزملائه في جامعة ميونيخ التقنية في ألمانيا، الذين قاموا بتطوير نظام تعلم عميق قادر على كشف استبدال الوجوه في الفيديوهات بشكل آلي. يمكن للتقنية الجديدة أن تساعد على كشف الفيديوهات المزيفة بعد نشرها على الإنترنت. غير أنها سلاح ذو حدين، حيث يمكن استخدامها أيضاً لتحسين جودة عملية استبدال الوجوه، بحيث تصبح أصعب على الكشف.

تعتمد التقنية الجديدة على خوارزمية تعلم عميق قام روسلر وزملاؤه بتدريبها على كشف استبدال الوجوه، ويمكن تدريب هذه الخوارزميات فقط باستخدام مجموعات ضخمة من الأمثلة الجيدة على شكل بيانات تحمل علامات استدلالية، وهو ما لم يكن موجوداً من قبل. وبالتالي، بدأ الفريق بتشكيل مجموعة بيانات ضخمة من فيديوهات استبدال الوجوه مع نسخها الأصلية، واستخدموا نوعين من استبدال الوجوه يمكن تنفيذهما بسهولة باستخدام برنامج يسمى Face2Face، وهو برنامج قام بعض أفراد الفريق بتصميمه. يقوم النوع الأول بتركيب وجه شخص ما على جسد شخص آخر بحيث يأخذ تعابير وجهه، أما الثاني فيأخذ التعابير من وجه ما ويعدل الوجه الثاني بحيث تظهر عليه. نفذ الفريق هذه العملية على أكثر من ألف فيديو، وحصلوا بهذا على قاعدة بيانات تتضمن حوالي نصف مليون صورة تم التلاعب بالوجوه فيها ببرنامج تحرير متطور للغاية، ويسمونها بقاعدة بيانات التحليل الجنائي للوجوه.

يمثل حجم قاعدة البيانات تحسناً ملحوظاً عما كان متوافراً من قبل. يقول روسلر وزملاؤه: "لقد وضعنا قاعدة بيانات جديدة من الفيديوهات المعدلة، والتي تتفوق في الحجم بعدة مراتب على جميع قواعد البيانات للتحليل الجنائي والمتاحة للعامة".

بعد ذلك، قام الفريق باستخدام قاعدة البيانات لتدريب خوارزمية التعلم العميق على تمييز الاختلافات بين الفيديوهات المعدلة ونسخها الأصلية، ويسمون هذه الخوارزمية XceptionNet. وأخيراً، قاموا بإجراء مقارنة بين المقاربة الجديدة وغيرها من تقنيات كشف التزييف.

كانت النتائج مثيرة للإعجاب. فقد تمكنت هذه الخوارزمية من التفوق بوضوح على غيرها من التقنيات في كشف الفيديوهات المعدلة، حتى عندما كانت الفيديوهات مضغوطة، وهو ما يمكن أن يزيد من صعوبة المهمة. يقول روسلر وزملاؤه: "لقد توصلنا إلى نتائج أولية ممتازة من حيث كشف التلاعب الوجهي باستخدام هيكليات التعلم العميق العصرية". يمكن لهذه التقنية أن تسهل من عملية كشف الفيديوهات المزيفة أثناء تحميلها إلى الإنترنت. ولكن الفريق يعي تماماً طبيعة المطاردة التي لا تنتهي بين تقنيات التزييف وتقنيات كشفها، فما أن تظهر تقنية كشف جديدة حتى ينطلق السباق للعثور على أسلوب للتغلب عليها.

يتمتع روسلر وزملاؤه بأفضلية بما أنهم قاموا بتطوير XceptionNet، وبالتالي قاموا باستخدامها لتحديد الدلالات التي تفضح التلاعب بالفيديو، ومن استخدام هذه المعلومات من أجل تحسين عملية التزييف، ما يجعل كشفها أكثر صعوبة. تبين أن هذه العملية يمكن أن تحسن من الجودة المرئية للتزييف، ولكنها في الواقع لا تؤثر على قدرة الخوارزمية على كشفه. يقول روسلر وزملاؤه: "إن عملية التحسين هذه تزيد من الجودة المرئية، ولكنها لا تمثل مشكلة تذكر لعملية الكشف، لأن هذه الفيديوهات المزيفة هي التي استخدمت لتدريب خوارزمية التعلم العميق".

يعتبر هذا العمل مثيراً للاهتمام لأنه يقدم أسلوباً جديداً للغاية في تحسين عملية التلاعب بالصور. يقول الباحثون: "نعتقد أن هذا التبادل ما بين التلاعب والكشف يمثل مجالاً جديداً ومثيراً للأبحاث اللاحقة".

مرجع

arxiv.org/abs/1803.09179: قاعدة بيانات التحليل الجنائي للوجوه.

FaceForensics: قاعدة بيانات فيديو كبيرة لكشف التزييف في الوجوه البشرية.

الإجابة: الصورة العليا في كل زوج من الصور هي الحقيقية.