ستجعل تقنية جديدة تسمى "لايت شيد" (LightShed) من الصعب على الفنانين استخدام أدوات الحماية الحالية لمنع استخدام أعمالهم لأغراض تدريب الذكاء الاصطناعي. هذه هي الخطوة التالية في لعبة القط والفأر -عبر التكنولوجيا والقانون والثقافة- التي تدور بين الفنانين ومؤيدي الذكاء الاصطناعي منذ سنوات.
تحتاج نماذج الذكاء الاصطناعي التوليدي التي تنشئ الصور إلى التدريب على مجموعة واسعة من المواد المرئية، ويزعم أن مجموعات البيانات المستخدمة في هذا التدريب تتضمن أعمالاً فنية محمية بموجب حقوق التأليف والنشر دون إذن. وقد أثار ذلك قلق الفنانين، الذين يشعرون بالقلق من أن النماذج ستتعلم أسلوبهم وتقلد أعمالهم ما قد يؤدي إلى فقدانهم وظائفهم.
اقرأ أيضاً: لماذا أصبح الفنانون أقل خوفاً من الذكاء الاصطناعي؟
تسميم الأعمال لحمايتها من الاستخدام في تدريب نماذج الذكاء الاصطناعي
وقد حصل هؤلاء الفنانون على بعض الحماية المحتملة في عام 2023، عندما ابتكر الباحثون أدوات مثل "غليز" (Glaze) و"نايت شيد" (Nightshade) لحماية الأعمال الفنية من خلال "تسميمها" ضد تدريب الذكاء الاصطناعي (حتى إن شون شان حصل على جائزة مبتكر العام من مجلة إم آي تي تكنولوجي ريفيو العام الماضي لعمله على هذه الأدوات). ومع ذلك، يزعم مطورو لايت شيد أنها قادرة على تعطيل هذه الأدوات وغيرها من الأدوات المشابهة لها، ما يسهل استخدام الأعمال الفنية لأغراض التدريب مرة أخرى.
وللتوضيح، فإن الباحثين الذين وقفوا وراء تطوير لايت شيد لا يحاولون سرقة أعمال الفنانين. فما يرغبون في إثباته فحسب هو ألا ينتاب الناس شعور زائف بالأمان. تقول طالبة الدكتوراة في جامعة كامبريدج والمؤلفة الرئيسية لورقة بحثية حول هذا العمل، هانا فورستر: "لن تكون متأكداً مما إذا كانت الشركات لديها طرق لحذف هذه السموم ولكنها لن تخبرك بذلك أبداً". وإذا كان لدى الشركات طريقة ما، فقد يكون قد فات الأوان لإصلاح المشكلة.
تعمل نماذج الذكاء الاصطناعي، جزئياً، من خلال إنشاء حدود ضمنية بين ما تعده فئات مختلفة من الصور. تغير غليز ونايت شيد ما يكفي من وحدات البكسل لدفع عمل فني معين إلى تجاوز هذه الحدود دون التأثير في جودة الصورة، ما يجعل النموذج يراها على أنها ليست كذلك. تسمى هذه التغييرات غير الملحوظة تقريباً "الاضطرابات"، وهي تفسد قدرة نموذج الذكاء الاصطناعي على فهم العمل الفني.
تجعل غليز النماذج تسيء فهم الأسلوب (كتفسير لوحة واقعية على أنها رسم كاريكاتوري على سبيل المثال). أما نايت شيد، فتجعل النموذج يرى الموضوع بطريقة خاطئة (كتفسير قطة في الرسم على أنها كلب على سبيل المثال). تستخدم غليز للدفاع عن الأسلوب الفردي للفنان، بينما تستخدم نايت شيد لمهاجمة نماذج الذكاء الاصطناعي التي تجوب أرجاء الإنترنت بحثاً عن الأعمال الفنية.
تعاونت فورستر مع فريق من الباحثين من جامعة دارمشتات التقنية وجامعة تكساس في سان أنطونيو لتطوير لايت شيد، التي تتعلم كيفية معرفة المفاصل التي تنثر فيها أدوات مثل غليز ونايت شيد هذا النوع من السم الرقمي ضمن الأعمال الفنية حتى تتمكن من إزالتها بفعالية. ستعرض المجموعة النتائج التي توصلت إليها في ندوة أوسنيكس للأمن، وهي مؤتمر عالمي رائد في مجال الأمن السيبراني، في شهر أغسطس/آب.
عمل الباحثون على تدريب لايت شيد من خلال تلقيمها بأعمال فنية، مع تطبيق أدوات كل من نايت شيد وغليز وغيرهما من الأدوات المماثلة ومن دون تطبيقها. تصف فورستر العملية بأنها تعليم لايت شيد إعادة بناء "السم المدسوس في الصور المسمومة فحسب". إن تحديد حد أقصى لكمية السم التي قد تربك الذكاء الاصطناعي يسهل إزالة السم فحسب.
لايت شيد: أداة تزيل تسميم الأعمال الفنية
لايت شيد فعالة للغاية في هذا الأمر. ففي حين وجد باحثون آخرون طرقاً بسيطة لتعطيل التسميم، يبدو أن لايت شيد أكثر قدرة على التكيف. حتى إنها قادرة على تطبيق ما تعلمته من أداة واحدة مضادة للذكاء الاصطناعي -نايت شيد على سبيل المثال- على أدوات أخرى مثل "ميست" (Mist) أو "ميتا كلوك" (MetaCloak) دون الحاجة إلى الاطلاع عليها مسبقاً. وعلى الرغم من أنها تواجه بعض المشاكل في الأداء ضد جرعات صغيرة من السم، فمن غير المرجح لهذه الجرعات أن تؤثر في قدرات نماذج الذكاء الاصطناعي على فهم الأعمال الفنية الكامنة، ما يجعلها خياراً مربحاً للذكاء الاصطناعي أو خياراً خاسراً للفنانين الذين يستخدمون هذه الأدوات.
عمد نحو 7.5 ملايين شخص، كثير منهم فنانون من ذوي القاعدة الجماهيرية الصغيرة والمتوسطة والموارد المحدودة، إلى تنزيل تطبيق غليز لحماية أعمالهم الفنية. يرى مستخدمو الأدوات مثل غليز أنها خط دفاعي تقني مهم، خاصة في ظل عدم وضوح وضع اللوائح التنظيمية المتعلقة بتدريب الذكاء الاصطناعي وحقوق التأليف والنشر. يرى مبتكرو لايت شيد عملهم بمثابة تحذير من أن أدوات مثل غليز ليست حلولاً دائمة. تقول فورستر: "قد يتطلب الأمر بضع جولات إضافية من البحث عن أفكار أفضل للحماية".
اقرأ أيضاً: تعرّف إلى طريقة تسميم الذكاء الاصطناعي لحماية حقوق الفنانين وإبداعهم
ضرورة التوصل إلى أفكار أفضل للحماية
يبدو أن مبتكري غليز ونايت شيد يتفقون مع هذا الرأي: فقد حذر الموقع الإلكتروني لنايت شيد من أن الأداة غير مستدامة للمستقبل قبل بدء العمل على لايت شيد. ولا يزال شان، الذي قاد البحث في كلتا الأداتين، يعتقد أن وسائل الحماية مثل التي استخدمها لها أهميتها حتى مع وجود طرق للالتفاف عليها.
يقول شان: "إنها وسيلة رادعة"، وهي طريقة لتحذير شركات الذكاء الاصطناعي من أن الفنانين جادون في مخاوفهم. والهدف، على حد تعبيره، هو وضع أكبر عدد ممكن من العراقيل حتى تجد شركات الذكاء الاصطناعي أن من الأسهل عليها العمل مع الفنانين فقط. وهو يعتقد أن "معظم الفنانين يدركون إلى حد ما أن هذا حل مؤقت"، ولكن لا يزال وضع تلك العقبات أمام الاستخدام غير المرغوب فيه لأعمالهم عملاً ذا قيمة مهمة.
تأمل فورستر استخدام ما تعلمته من خلال لايت شيد لبناء وسائل حماية جديدة للفنانين، بما في ذلك العلامات المائية الذكية التي تستمر بطريقة ما مع العمل الفني حتى بعد مروره بنموذج الذكاء الاصطناعي. وعلى الرغم من أنها لا تعتقد أن هذا سيحمي الأعمال الفنية من الذكاء الاصطناعي إلى الأبد، فهي تعتقد أن هذا يمكن أن يساعد على قلب الموازين لصالح الفنانين مرة أخرى.
الذكاء الاصطناعي