ليس من الضروري أن تكون أدوات التزييف العميق مؤذية، ولكن كيف؟

6 دقائق
صورة توضح الفرق بين ما هو أصلي (ORIGINAL)، وما هو عميق التزييف (DEEPFAKE).

تتمتع تكنولوجيات الوسائط المصطنعة -التي تُعرف أيضاً باسمها الشائع: الوسائط عميقة التزييف- بإمكانية حقيقية لإحداث تأثير إيجابي. وعلى سبيل المثال، فإن تركيب الصوت سيسمح لنا بالتكلم بمئات اللغات بصوتنا الخاص، ويمكن أن يساعدنا تركيب الفيديو على محاكاة حوادث السيارات ذاتية القيادة لتجنب الأخطاء في المستقبل، كما يمكن لتركيب النصوص أن يحسّن من قدرتنا على كتابة النصوص البرمجية والنثرية.

ولكن هذه الفوائد ستأتي بتكلفة باهظة إذا لم نلزم جانب الحذر؛ حيث إن هذه التكنولوجيات تسمح أيضاً بالخداع الذي يمكن أن يؤدي إلى عواقب وخيمة على مستوى العالم. ومن حسن الحظ أننا نستطيع أن نعزز من فوائد هذه التكنولوجيات ونخفف من آثارها الضارة في نفس الوقت، ولن يحتاج هذا إلا إلى بعض العمل الجاد.

وما أطرحه هنا هو نداء للبدء بهذا العمل، ودليل لدعم وتوجيه من يصممون هذه التكنولوجيات، سواء كانوا يقومون بإجراء أبحاث متقدمة، أو يعملون على تطوير منتجات جديدة، أو يبنون أنظمة مفتوحة المصدر بهدف التسلية والترفيه. كما أن هذا النداء موجهٌ أيضاً لمن يستثمرون في هذا العمل أو يقومون بتمويله، وإلى الصحفيين الذين يمكنهم المساعدة في دفع مطوري هذه التكنولوجيات إلى أخذ آثار هذا العمل على محمل الجد، وإلى أصدقاء وعائلات مَن يقومون بتطوير هذه التكنولوجيات.

ولم يعد بإمكاننا أن نتهرب من المسؤولية بالتذرع بعدم وجود ما يمكن فعله إذا أساء الآخرون استخدام هذه التكنولوجيات؛ لأنه يوجد حقاً ما يمكن فعله، غير أننا ببساطة لا نكترث في أغلب الأحيان. كما أن الذريعة الأخرى التي تقول إن "هذه التكنولوجيا ستُصنع على أي حال في نهاية المطاف" ليست خاطئة تماماً، ولكن زمن وكيفية تحقّق هذا الأمر تعد عوامل هامة للغاية، ويمكن أن تتغير بسبب خياراتنا. وأخيراً، لا يمكننا أن نتذرع بأن الخداع كان موجوداً على الدوام من قبل، ونتجاهل الفروق الكبيرة في درجة هذا الخداع وتأثيره.

إن مضار المزيفات العميقة تتجاوز المفاهيم النظرية؛ حيث إن الفيديوهات التي تتضمن تبديل الوجوه يمكن أن تُستخدم لابتزاز الصحفيين وإجبارهم على الصمت والتخلي عن تحقيقاتهم الصحفية، كما أن الأصوات المصطنعة تُستخدم في تنفيذ عمليات احتيال مالي كبيرة، ويقال إن الوجوه المصطنعة استُخدمت في التجسس. ويحدث كل هذا على الرغم من التحديات الحالية في استخدام هذه التكنولوجيا، لأن أدواتها ما زالت عبارة عن برمجيات سيئة التجميع وما زالت في المرحلة التجريبية. كما أن العوائق التي تقف في وجه استخدام الوسائط المصطنعة ما زالت كبيرة، وهو ما يجعلها غير جذابة بالنسبة لأغلب الجهات الخبيثة، ولكن مع خروجها بالتدريج من مرحلة البرمجيات التجريبية المليئة بالأخطاء، وانتشارها بين المليارات من البشر، فإنه تقع على عاتقنا مسؤولية تجنب أسوأ السيناريوهات، وذلك بجعل استخدام هذه التكنولوجيات للأغراض الخبيثة صعباً قدر الإمكان. ولكن كيف؟

المقاربة 1: تحديد من يمكن أن يستخدم هذه الأدوات، وكيفية استخدامها
هناك عدة أشياء يمكننا القيام بها للحد من الاستخدامات المسيئة. ومن الأساليب البديهية والبسيطة والفعالة هي اختيار من سيستخدمون هذه الأدوات بعناية. هذا ما تقوم به بعض الشركات مثل سينثيسيا، التي لا تتعامل إلا مع شركات موثقة ومعروفة. ويمكن أيضاً تقييد الاستخدام؛ أي الحد من إمكانية الاصطناع والتلاعب. وعلى سبيل المثال، يمكن بناء أدوات تقتصر في عملها على التلاعب فقط بأصوات أو وجوه محددة ومُختارة من قبل، وهو ما تقوم به شركة هيومن، التي تقدم مجموعة محدودة من الخيارات في تركيب الفيديو.

غير أن هذا الخيار قد لا يكون وارداً في الكثير من الأنظمة الأخرى. فماذا يمكن أن نفعل أيضاً؟

المقاربة 2: التشجيع على الابتعاد عن الاستخدامات المسيئة
بالنسبة لأدوات اصطناع الوسائط عامة الاستخدام، التي قد تكون متاحة أمام الجميع، فما زال هناك الكثير من الوسائل الممكنة للحد من الاستخدامات المسيئة لها. ونقدم فيما يلي بعض الأمثلة:

  • التصريح الواضح: أي الطلب بأن تُوسَم الوسائط المُصطنعة بما يوضح طبيعتها بالضبط، خصوصاً المواد التي يمكن استخدامها للتضليل. ويمكن القيام بهذا عن طريق إضافة ملاحظات واضحة على شكل تحذيرات مرئية أو تصريحات صوتية في ملفات الخرج. وعلى الأقل، يجب أن تتضمن البيانات الوصفية طريقة تركيب الملف أو التلاعب به.
  • الحماية بالموافقة: أي طلب موافقة الشخص الذي يتم تقليده. وعلى سبيل المثال، تطلب أداة استنساخ الصوت لايربيرد من المستخدمين نطق جمل محددة لنمذجة أصواتهم، وبذلك تزيد صعوبة تقليد شخص ما دون موافقته، وهو ما قد يكون ممكناً بسهولة إذا تم توليد الصوت باستخدام أية بيانات متاحة. وطبعاً لا يمكن تطبيق هذه الطريقة إلا على الأدوات التي تقوم بالتقليد.
  • قابلية الكشف: أي الحد من مقاومة الوسائط المصطنعة لوسائل الكشف، وتحديث أدوات الكشف باستمرار، والتعاون مع المختصين بالكشف لإطلاعهم على أحدث المستجدات.
  • العلامات المائية الخفية: دمج بعض المحتوى المتعلق بعملية اصطناع الوسائط، أو حتى المحتوى الأصلي، عبر علامات مائية صعبة الإزالة، باستخدام أساليب متاحة للجميع عن طريق الأدوات المناسبة، أو عبر وسائل سرية وصعبة الإزالة. وعلى سبيل المثال، فإن شركة موديوليت إيه آي تقوم بإضافة علامات مائية على الملفات الصوتية التي تولدها، في حين أن بعض المنتجات مثل إيماتاج وغيرها من المنتجات مفتوحة المصدر تتيح استخدام العلامات المائية على الصور.
  • سجلات الاستخدام: أي تخزين المعلومات حول الاستخدام والوسائط الناتجة، بحيث يستطيع الباحثون والصحافيون الوصول إلى السجلات، واكتشاف ما إذا كان مقطع فيديو محدد تم تصنيعه باستخدام أداة محددة على سبيل المثال. ويمكن أن يتضمن هذا أيضاً تخزين علامات زمنية صعبة الإزالة لوقت التركيب باستخدام التجزئة أو الوسائط.
  • قيود الاستخدام: طرح بنود في عقود الاستخدام حول الاستخدام، وإلزام المستخدمين باتباعها، وفرض عقوبات على من يخالفها، مثل محاولة إزالة التصريحات أو العلامات المائية، أو انتهاك شرط موافقة الآخرين. ويمكن أن تأخذ هذه المقاربة شكلاً أكثر فاعلية بتحديد الاستخدامات المسموحة أو النتائج بالتفصيل.

ولا يمكن تطبيق جميع هذه الإستراتيجيات على جميع الأنظمة؛ فقد يتضمن بعضها مخاطرات معينة، كما أنها ليست مثالية، أو حتى كافية وحدها. إنها تشكل جميعاً ما يمكن أن نسميه "الدفاع في العمق"؛ حيث يجب زيادة الإجراءات لتعزيز فعاليتها. وحتى لو كان لدينا عمليات تدقيق أو قيود، فإن هذه الإجراءات تجعل من النظام أكثر مقاومة ضد الجهات المعادية. وعلى الرغم من أن اتباع هذه القواعد قد يكون أكثر نجاحاً في الأنظمة التي تؤمن الخدمات البرمجية، أي التي تُقدم النتائج فيها من دون الرماز البرمجي الأساسي، إلا أنها ما زالت تحمل بعض القيمة بالنسبة للأدوات والنماذج مفتوحة المصدر؛ حيث إن الكثير من الجهات الخبيثة لن تمتلك القدرات الفنية للالتفاف حول هذه الإجراءات الوقائية (ويدرس البحث متى يجب نشر الرماز البرمجي الأساسي).

دعم الأدوات الأخلاقية للتزييف العميق
قد يكون من الصعب تبرير بذل مجهود إضافي لحماية الناس من الأذى في ظل التنافسية الشديدة التي تتسم بها بيئة الأعمال الحالية، وذلك حتى تقع كارثة ما على الأقل. إذن، كيف نساعد على ضمان تطبيق هذه المقاربات قبل فوات الأوان؟ إليكم 4 أشياء يمكن أن يقوم بها الممولون والحكومات والصحافيون والعامة الآن لدعم هذه الأدوات الأخلاقية.

تسهيل القيام بالشيء الصحيح
هذا يعني أننا يجب أن نستثمر في الأبحاث التي تخص هذه المسائل، بحيث يصبح لدينا أدوات مفتوحة المصدر وجيدة التمويل وجاهزة للاستخدام على نطاق واسع لتطبيق هذه المقاربات؛ حيث إن تاريخ أمن المعلومات يبين لنا أن استخدام الأدوات السهلة مفتوحة المصدر للحفاظ على أمن المعلومات يزيد فعلاً من أمن المعلومات، ويمكن أن نطبق نفس المنطق هنا، فعلى الأقل، يجب -وعلى وجه السرعة- أن نسهل من عملية تقديم بيانات وصفية وعلامات مائية وسجلات استخدام حول المواد عميقة التزييف، وذلك وفق معايير موحدة. كما يجب إجراء الأبحاث لدراسة إدماج إمكانية الكشف ضمن النماذج المدربة قبل توزيعها. ومن دون هذا النوع من الهيكليات والأبحاث، سنشهد المزيد من الاستخدامات المريعة للأدوات التي كانت مصممة في البداية لإفادة الجميع.

رعاية الخبرات في مواجهة الاستخدام المسيء
كما في حالة الخصوصية والحماية، يجب أن ندعم المجتمعات والأوساط التي تركز على تدعيم مقاومة الأنظمة للتزييف، والتعامل مع الجهات الخبيثة، ويجب أن تدفع الشركات للمختصين لقاء القيام بهذا الأمر، سواء داخل الشركة أو على شكل استشارات خارجية.

تجنب تمويل وبناء وتوزيع الأدوات غير المسؤولة
إذا لم تبذل الشركة أو الأداة الحدَّ الأدنى من الجهد في محاولة التخفيف من احتمال الاستخدام المسيء، يجب على الممولين والمطورين ألا يدعموها. وإذا لم يقم مصممو الأدوات بتطبيق أفضل الممارسات كما ذُكرت أعلاه، فيجب أن يكون ذلك لسبب وجيه للغاية، ويجب على متاجر التطبيقات أن تفرض هذه المعايير بشكل افتراضي.

فرض المعايير بتحميل المسؤولية
في حال تجاهل أي شخص لهذه المسألة، فيجب أن يُشار إليه بوضوح، حتى لو كان من المستثمرين أو زملاء العمل أو الأصدقاء أو العائلة؛ حيث يمكن أن نساهم في فرض ونشر معايير أخلاقية بالثناء على مَن يقومون بالشيء الصحيح، ودفع من لا يقومون بذلك نحو أداء أفضل.

وتعمل بعض المنظمات على تطوير تكنولوجيا التزييف العميق، مثل إنفيديا وأدوبي وفيسبوك وجوجل، ويجب أن تستثمر مبالغ كبيرة في كل ما ذكرناه. كما يجب على المستثمرين والمؤسسات أيضاً لعب دور هام في دعم هذا العمل، وتوجيه الدعم بحرص وعناية.

هذا مجرد جزء صغير من مجال واسع من الجهود المطلوبة، وفي الكثير من الحالات، قد لا يؤدي هذا إلا إلى تأجيل المشاكل لمزيد من الوقت وحسب. وبالتالي يجب على المنصات وصانعي السياسات استثمارَ هذا الوقت بذكاء وحكمة لزيادة مناعة أنظمتنا المعلوماتية، فالماضي يعج بمن يتمنون لو قدموا اختراعاتهم إلى العالم بشكل أفضل، وليس لدينا سوى مستقبل واحد. لنحاول ألا نفسده.

المحتوى محمي