تخشى شركة فيسبوك من مقاطع الفيديو عميقة التزييف التي أُنشئت بواسطة الذكاء الاصطناعي؛ حيث من المحتمل أن تصبح هذه الفيديوهات مصدراً كبيراً للتضليل الإعلامي الواسع عبر انتشارها بين مستخدمي موقع التواصل الاجتماعي الخاص بها، ومن المحتمل أن تؤدي إلى عواقب وخيمة على الانتخابات الرئاسية الأميركية المقبلة.
ما الحل إذن؟
يكمن الحل في صنع الكثير من هذه الفيديوهات عميقة التزييف لمساعدة الباحثين على بناء الأدوات اللازمة للكشف عنها وتحسين هذه الأدوات.
وقد وجّهت فيسبوك فريقه من باحثي الذكاء الاصطناعى لإنتاج عدد من مقاطع الفيديو المزيفة والواقعية للغاية، والتي تضم عدداً من الممثلين يقومون بفعل أشياء روتينية. وسيتم اتخاذ هذه المقاطع كقاعدة بيانات لاختبار أدوات الكشف عن هذه المقاطع المزيفة وتقييمها؛ حيث ستصدر فيسبوك هذه المقاطع في مؤتمر كبير للذكاء الاصطناعي بحلول نهاية العام.
ويُعزى انتشار مقاطع الفيديو عميقة التزييف إلى تطور تقنيات التعلم الآلي؛ حيث كان من الممكن لأستوديوهات الأفلام معالجة الصور والفيديو بواسطة البرامج وأجهزة الكمبيوتر من قبل، وقد تم بالفعل استخدام بعض الخوارزميات في تحديد وجوه الأشخاص وإعادة لصقها على وجه شخص آخر.
وهناك بعض الطرق المستخدمة للتعرف على الوسائط المزيفة ، لكنها غالباً ما تتضمن تحليلاً طويلاً من شخص خبير، أما عن الأدوات التي تكتشف ذلك التزييف أوتوماتيكياً، فإنها ما تزال في مراحلها الأولى.
يقول مايك شروبفر، الرئيس التنفيذي للتكنولوجيا في فيسبوك، إن تقنيات التزييف العميق تتطور بسرعة، لذا فإن العمل على إنتاج وسائل أفضل لكشف ذلك التزييف يُعد أمراً أساسياً.
كما قال شروبفر، الذي يقود المبادرة: "لم تصبح مشكلة التزييف العميق مشكلة كبيرة على منصاتنا بعد، لكنه إذا أصبح الوصول إلى تلك الوسائل سهلاً ورخيصاً وسريعاً، فمن الممكن أن ذلك يزيد من خطر استخدام الناس لهذه التقنية بطريقة ضارة. لا أريد أن تُصبح هذه التقنية مشكلة كبيرة قبل استثمارنا مبالغ ضخمة في البحث والتطوير".
ويقول شروبفر، مشبِّهاً بحوثهم بالبحوث التي أُجريت لمكافحة رسائل البريد الإلكتروني المؤذية، إن فيسبوك قد لا تقدر على التقاط المقاطع المزيفة بأسلوب معقد، ويقول: "سنلاحظ ما هو واضح". ومع ذلك فقد قال إن الشركة لم تعتمد أي طريقة حتى الآن؛ لأن عمليات التزوير تتطور بسرعة.
مصدر الفيديو: فيسبوك
وستخصص الشبكة الاجتماعية مبلغ 10 ملايين دولار لتمويل تكنولوجيا الكشف عن التزوير من خلال المنح وجوائز التحديات؛ وذلك بالمشاركة مع عدة جهات، كشركة مايكروسوفت، وشركة "بارنرشيب أون إيه آي Partnership on AI"، والأكاديميين من المؤسسات بما في ذلك إم آي تي، ويو سي بيركلي، وجامعة أوكسفورد، حيث ستطلق الشركة تحدي اكتشاف التزوير العميق، الذي سيقدم مكافآت نقدية غير محددة لأفضل طرق الكشف عنه.
وفي العادة، نحتاج إلى مقطعين مرئيين طبيعيين لكي نحصل على مقطع فيديو مزور بعمق؛ حيث تتعلم الخوارزميات مظهر كل وجه لتستطيع استبدال واحد بالآخر مع الحفاظ على كل ابتسامة وغمضة وإيماءة. كما يمكن استخدام تقنيات ذكاء اصطناعي مختلفة لإعادة إنشاء صوت شخص معين. وقد أُخذ مصطلح "التزوير العميق" من مستخدم على موقع ريديت قام بإصدار أداة لهذا التزوير في عام 2017. كلمة "العميق" تشير إلى التعلم العميق، وهي تقنية الذكاء الاصطناعي المستخدمة.
ويتمثل أحد المخاوف الكبيرة في استخدام تقنية التزوير العميق هذه لنشر معلومات مضللة خلال الانتخابات الأميركية في العام المقبل، وربما حتى التأثير على النتيجة؛ حيث نبه العديد من أعضاء مجلس الشيوخ الأميركي بشأن هذا الأمر، وقدم بن ساسي / آر نبراسكا مشروعَ قانون يحظر إنتاج مقاطع مزورة بعمق لأغراض خبيثة. وقد اعتُبرت المقاطع عميقة التزوير واحدة من أكبر التحديات لانتخابات عام 2020، حسبما ورد في تقرير جديد من جامعة نيويورك عن المعلومات المضللة عن الانتخابات.
وقد بدأت مقاطع الفيديو المزيفة بالانتشار على المنصات الاجتماعية؛ حيث إنه في وقت سابق من هذا العام، انتشر مقطع على الفيسبوك ظهرت فيه نانسي بيلوسي وهي تتلعثم في خطابها (تم صنع هذا الفيديو ببساطة عن طريق إبطاء اللقطات). ورفضت شركة فيسبوك إزالة هذا المنشور، بالإضافة لرفضها إزالة فيديو مزيف عن مارك زوكربيرج؛ حيث اختارت الشركة الإشارة إلى المقاطع على أنها مزيفة تبعاً لمنظمات التحقق، وذلك عوضاً عن إزالتها كلياً.
ومن المنطقي أن تحاول فيسبوك الإسراع في حل تلك المشكلة، وخاصة بعد مشاكل الانتخابات الرئاسية الأخيرة؛ حيث واجهت الشركة انتقادات كثيرة مع ظهور حملات التضليل السياسي؛ وذلك لسماحها بنشر مثل هذه الدعاية.
وقد يكون لترويج تحدي الكشف عن التزوير العميق عواقب سيئة؛ حيث لاحظ هنري أجدر، وهو محلل في شركة ديبتريس الهولندية التي تعمل على إيجاد أدوات لاكتشاف مقاطع مزورة، أن انتشار مشكلة التزييف العميق يمكن أن يوفر وسيلة للسياسيين من أجل تفادي المساءلات القانونية؛ وذلك من خلال الادّعاء بأن مقاطعهم الحقيقية مزيفة. يقول أجدر: "خَلقت فكرةُ التزييف العميق وحدها الكثيرَ من المشاكل؛ فهي كالفيروس الذي أصاب عقول السياسيين والمواطنين في المجال السياسي".
ولكن على الرغم من الإنذار، يشك أجدر -الذي يتتبع جميع عمليات التزوير العميق- في توظيف هذه التكنولوجيا لأغراض سياسية حالياً، بل يعتقد أنها ستصبح أداة قوية للمطاردة الإلكترونية والتنمر.
وتوجد طرق قليلة لاكتشاف المقاطع المزورة بعمق، وتتضمن التقنيات البسيطة تحليل البيانات في مقطع الفيديو أو البحث عن حركات الفم العشوائية والتغميضات، وهو أمر يصعب على خوارزمية التزييف التقاطه وإعادة إنشائه.
أما عن الطريقة التي طورتها مجموعة من كبار الخبراء مؤخراً، فهي تعتمد على تدريب خوارزمية للتعلم العميق تتعرف على أسلوب تحريك الشخص لرأسه؛ حيث إن خوارزميات التزييف لم تستطع التقاط وتزييف ذلك بعد.
وقد بدأ العمل على هذه الخوارزمية بعد تكريس جهود إضافية لتطوير أدوات الكشف، التي يتم تمويلها من قِبل وكالة مشاريع البحوث الدفاعية المتقدمة (داربا).
كما شعر العديد من الخبراء بالقلق من السرعة التي تتقدم بها عمليات التزوير العميقة باستخدام الذكاء الاصطناعي. وفي هذا الأسبوع، أثار تطبيق صيني يسمى زاو جدلاً من خلال نشر مقاطع فيديو مزورة بعمق تم إنشاؤها من صورة ثابتة. وحذر هاو لي، وهو فنان مؤثرات بصرية وأستاذ مشارك في جامعة جنوب كاليفورنيا، من احتمالية إنتاج مقاطع مزورة بعمق وصعبة الاكتشاف قبل فترة طويلة.