يسرني أن أزف لكم بعض الأخبار المبشرة من عالم الذكاء الاصطناعي. فبعد الفضيحة المؤسفة التي تعرضت لها الفنانة تايلور سويفت بسبب المواد الإباحية العميقة التزييف، وانتشار المزيفات العميقة السياسية، مثل المكالمات الآلية بصوت الرئيس الأميركي بايدن التي أنتجها الذكاء الاصطناعي، والتي تطلب من الناخبين البقاء في منازلهم، قررت الشركات التكنولوجية أن تتعامل مع هذه المسألة، وتتخذ الإجراءات اللازمة لتحسين كشف المحتوى الذي يولده الذكاء الاصطناعي.
علامات مميزة للصور التي يولدها الذكاء الاصطناعي
في 6 فبراير/شباط، قالت شركة ميتا (Meta) إنها ستضيف علامة مميزة إلى الصور التي يولدها الذكاء الاصطناعي على منصات فيسبوك وإنستغرام وثريدز (Threads). فعندما يستخدم شخص ما أدوات ميتا للذكاء الاصطناعي في إنتاج الصور، ستضيف الشركة علامات مرئية إليها، إضافة إلى علامات مائية وبيانات وصفية غير مرئية ضمن ملف الصورة. تقول الشركة إن معاييرها متوافقة مع أفضل الممارسات التي وضعتها مؤسسة بارتنرشب أون أيه آي (Partnership on AI)، وهي مؤسسة لا ربحية لأبحاث الذكاء الاصطناعي.
اقرأ أيضاً: بعد حادثة تايلور سويفت: ما الطرق المتوفرة حالياً لمكافحة الصور المزيفة بالذكاء الاصطناعي؟
ما هو معيار سي 2 بي أيه (C2PA)؟
أيضاً، قررت الشركات التكنولوجية الكبرى أن تلقي بثقلها لاعتماد معيار تقني واعد يمكن أن يضيف ما يشبه بطاقة المعلومات الغذائية إلى الصور ومقاطع الفيديو والصوت. يحمل هذا المعيار اسم "سي 2 بي أيه" (C2PA)، وهو بروتوكول إنترنت مفتوح المصدر، ويعتمد على التشفير من أجل ترميز تفاصيل حول أصل محتوى معين، أو ما يشير إليه خبراء التكنولوجيا باسم معلومات "المنشأ". غالباً ما يقارن مطورو سي 2 بي أيه هذا البروتوكول ببطاقة المعلومات الغذائية، غير أن البطاقة في هذه الحالة توضح منشأ المحتوى، وهوية الشخص أو المصدر الذي أنتجه. تمكنك قراءة المزيد عنه هنا.
في 8 فبراير/شباط، أعلنت جوجل أنها ستنضم إلى شركات تكنولوجية عملاقة أخرى، مثل مايكروسوفت وأدوبي (Adobe)، في اللجنة التوجيهية للبروتوكول سي 2 بي أيه، وستدمج علامتها المائية سينث آي دي (SynthID) في الصور التي يولدها الذكاء الاصطناعي كافة ضمن أدوات جيميني (Gemini) الجديدة التي تخصها. تقول ميتا إنها ستشارك في بروتوكول سي 2 بي أيه أيضاً. يمثل وجود معيار معتمد على مستوى مجال الذكاء الاصطناعي عاملاً إيجابياً سيتيح للشركات كشف المحتوى الناتج عن الذكاء الاصطناعي بسهولة أكبر، بغض النظر عن النظام المستخدم في توليد هذا المحتوى.
أيضاً، أعلنت أوبن أيه آي (OpenAI) مؤخراً عن إجراءات جديدة متعلقة بالمنشأ. وتقول إنها ستضيف علامات مائية إلى البيانات الوصفية للصور المُوَلدة باستخدام تشات جي بي تي (ChatGPT) ودال-إي 3 (DALL-E 3)، وهو نظامها لإنتاج الصور بالذكاء الاصطناعي. تقول أوبن أيه آي إنها ستضيف أيضاً علامة مرئية إلى الصور حتى توضح أنها مُنتَجة باستخدام الذكاء الاصطناعي.
اقرأ أيضاً: 7 طرق للكشف عن الصور المولّدة بالذكاء الاصطناعي
بدايات واعدة
تمثل هذه الأساليب بداية واعدة، غير أن نتائجها غير مضمونة بالكامل. فمن السهل الالتفاف حول العلامات المائية في البيانات الوصفية من خلال أخذ لقطة شاشة للصورة واستخدامها ببساطة، على حين يمكن اقتطاع العلامات المرئية أو تعديلها. لكن قد يكون ثمة أمل بالنسبة للعلامات المائية غير المرئية مثل سينث آي دي من جوجل، التي تحدث تغييرات طفيفة في بيكسلات الصورة، بحيث يستطيع الحاسوب كشف وجود العلامات المائية، دون أن تكون ظاهرة للعين البشرية. ولا يمكن التلاعب بهذه العلامات المائية بسهولة. إضافة إلى ما سبق، ليست لدينا أساليب موثوقة لإضافة العلامات إلى الفيديو والصوت والنصوص، وكشف هذه الوسائط في حال كانت من نتاج الذكاء الاصطناعي، لكن تطوير أدوات المنشأ هذه ما يزال ذا أهمية.
قال لي خبير الذكاء الاصطناعي، هنري أجدر، عندما أجريت معه مقابلة منذ فترة حول كيفية التصدي للمزيفات العميقة الإباحية، إن الهدف هو بناء "رحلة مستهلك عصيبة". يعني أجدر بهذا التعبير إضافة العديد من العوائق والحواجز إلى العملية المتعلقة بالمزيفات العميقة بمراحلها المختلفة، من أجل إعاقة إنتاج المحتوى الضار وإبطاء انتشاره قدر الإمكان. من المحتمل أن يتمكن شخص مصمم على تحقيق هدفه من تجاوز وسائل الحماية هذه، لكن وجودها مفيد على أي حال مهما ضؤلت فائدتها.
ثمة حلول غير تقنية أيضاً يمكن للشركات أن تطبقها لمنع حدوث مشاكل مثل المزيفات العميقة الإباحية. يمكن لمزودي الخدمات السحابية ومتاجر التطبيقات الرئيسية، مثل جوجل وأمازون ومايكروسوفت وآبل، التحرك لحظر الخدمات التي يمكن استخدامها في إنتاج صور عارية عميقة التزييف دون موافقة المعنيين بمحتواها. كما تجب إضافة العلامات المائية إلى أنواع المحتوى الذي ينتجه الذكاء الاصطناعي كلها، بحيث يشمل هذا الإجراء حتى الشركات الناشئة الصغيرة التي تطور هذه التكنولوجيات.
اقرأ أيضاً: كيف تمنع الذكاء الاصطناعي من التعرف على وجهك في صور السيلفي؟
حلول تقنية وقوانين ملزمة
ما يمنحني الأمل هو أنه إلى جانب هذه التدابير التطوعية، بدأنا نرى بعض القوانين الملزمة، مثل قانون الذكاء الاصطناعي وقانون الخدمات الرقمية في الاتحاد الأوروبي، اللذين يلزمان الشركات التكنولوجية بالإفصاح عن المحتوى الناتج عن الذكاء الاصطناعي، والمسارعة إلى إزالة المحتوى الضار. كما تجدد الاهتمام بإقرار بعض القوانين الإلزامية حول المزيفات العميقة بين المشرعين الأميركيين. وبعد انتشار المكالمات الآلية الناتجة عن الذكاء الاصطناعي، التي تطلب من الناخبين الامتناع عن التصويت، أعلنت هيئة الاتصالات الفيدرالية الأميركية مؤخراً أنها ستحظر استخدام الذكاء الاصطناعي في هذه المكالمات.
عموماً، لديّ شكوك كثيرة بشأن المبادئ التوجيهية والقواعد الطوعية، لأنها لا تتضمن أي آلية حقيقية تتعلق بالمساءلة، كما أن الشركات قادرة على تغيير هذه القواعد وقتما تشاء. يحمل القطاع التكنولوجي تاريخاً غير مشرّف على الإطلاق فيما يتعلق بالتنظيم الذاتي. وفي عالم التكنولوجيا الذي يعتمد على النمو المتواصل والمنافسة الشرسة، غالباً ما تكون المفاهيم مثل الذكاء الاصطناعي المسؤول أكثر عرضة للتجاهل والتجاوز.
غير أنه على الرغم من هذا، فإن هذه الإعلانات موضع ترحيب كبير. كما أنها أفضل بكثير من الوضع الحالي، الذي يكاد يخلو من أي ضوابط.