منذ أن بدأت طفرة الذكاء الاصطناعي التوليدي، كان الفنانون يشعرون بالقلق بشأن فقدان سُبل عيشهم لصالح أدوات الذكاء الاصطناعي. وقد ظهر الكثير من الأمثلة على لجوء الشركات إلى استخدام برامج حاسوبية بدلاً من العمالة البشرية. ففي الآونة الأخيرة، أثارت شركة كوكا كولا (Coca-Cola) جدلاً واسعَ النطاق عندما أطلقت إعلاناً جديداً يخصُّ عيد الميلاد باستخدام الذكاء الاصطناعي التوليدي.
رفع عدد من الفنانين والكتّاب العديد من الدعاوى القضائية ضد شركات الذكاء الاصطناعي، بدعوى أن هذه الشركات جمعت أعمالهم وضمتها إلى قواعد البيانات لتدريب نماذج الذكاء الاصطناعي الخاصة بها دون موافقة أو تعويض. وردّت الشركات التكنولوجية على هذه المزاعم بقولها إن أي شيء منشور على شبكة الإنترنت العامة يقع ضمن نطاق الاستخدام العادل. غير أننا قد ننتظر عدة أعوام قبل التوصل إلى حل قانوني لهذه المشكلة.
لسوء الحظ، ليس هناك الكثير مما يمكنك فعله إذا انتهى المطاف بأعمالك في إحدى مجموعات البيانات وباتت مستخدمة في نموذج دخل حيز الاستخدام. ومع ذلك، يمكنك اتخاذ بعض الخطوات لمنع استخدام أعمالك في المستقبل.
اقرأ أيضاً: تعرّف إلى طريقة تسميم الذكاء الاصطناعي لحماية حقوق الفنانين وإبداعهم
إليك فيما يلي 4 طرق لتحقيق هذا الهدف:
أخفِ أسلوبك
يمثّل تطبيق "الأقنعة" (masks) على الصور واحداً من أكثر الأساليب التي يتبعها الفنانون شيوعاً لمكافحة الذكاء الاصطناعي، حيث تُتيح هذه الطريقة حماية أسلوبهم الشخصي من النسخ.
يُضيف بعض الأدوات، مثل "ميست" (Mist) و"أنتي دريم بوث" (Anti-DreamBooth) و"غليز" (Glaze)، تغييرات صغيرة غير مرئية للعين البشرية إلى بيكسلات الصورة، بحيث تعجز نماذج التعلم الآلي عن تفكيك ترميز الصورة بطريقة صحيحة في حالة جمعها ضمن مجموعة بيانات تدريبية. يتطلب تشغيل "ميست" و"أنتي دريم بوث" بعض المهارات المتعلقة بالبرمجة، لكن الأداة "غليز"، التي طورها باحثون في جامعة شيكاغو، أسهل استخداماً. هذه الأداة مجانية ومتاحة للتنزيل على هيئة تطبيق، أو يمكن تطبيق الحماية عبر الإنترنت. ومن غير المستغرب أنها الأداة أكثر شعبية وانتشاراً، وقد جرى تنزيلها ملايين المرات.
لكن الأساليب الدفاعية مثل هذه ليست مضمونة بالكامل، كما أن الأساليب الناجعة حالياً قد تفقد مفعولها لاحقاً. في مجال أمن الكمبيوتر، يمثّل اختراق الإجراءات الدفاعية ممارسة معتادة بين الباحثين، حيث يساعد هذا في العثور على نقاط الضعف وجعل الأنظمة أكثر أماناً. يشكّل استخدام هذه الأدوات مخاطرة محسوبة: فعندما تحمل ملفاً إلى الإنترنت، فإنك تفقد السيطرة عليه، ولا تستطيع إضافة أي إجراءات وقائية بأثر رجعي على الصور.
فكّر ملياً في أسلوبك في مشاركتك أعمالك الفنية والأماكن التي تشاركها فيها
أصبحت مواقع الملفات الفنية الشخصية الشهيرة، مثل "ديفيان آرت" (DevianArt) و"فليكر" (Flickr)، بمثابة مناجم للذهب بالنسبة إلى شركات الذكاء الاصطناعي التي تبحث عن بيانات تدريبية. وعندما تشارك الصور عبر منصات مثل إنستغرام (Instagram)، فإن شركتها الأم ميتا (Meta) تستطيع استخدام بياناتك لبناء نماذجها بصورة دائمة، إذا كنت قد شاركتها بأسلوب علني. (راجع فقرة طرق الانسحاب من مشاركة البيانات في هذا المقال)
من الطرق المتبعة لمنع جمع الصور، عدم مشاركتها بأسلوب علني عبر الإنترنت، أو تحويل ملفاتك الشخصية على وسائل التواصل الاجتماعي إلى ملفات خاصة. لكن هذا الخيار غير متاح ببساطة لدى الكثير من المبدعين، فمشاركة الأعمال عبر الإنترنت يمثّل وسيلة مهمة للغاية لجذب العملاء.
من المفيد أن تفكر في مشاركة أعمالك عبر منصة "كارا" (Cara)، وهي منصة جديدة تأسست في إطار ردود الفعل العنيفة ضد الذكاء الاصطناعي. تخطط منصة كارا، التي تعمل بالتعاون مع الباحثين الذين صمموا أداة غليز، لإضافة مكونات تمكنها من الاندماج في العمل مع الأدوات الوقائية الفنية التي ابتكرها المختبر البحثي. حيث تنفذ المنصة تلقائياً الوسوم التي تمنع استخدام الذكاء الاصطناعي، وهي تحمل اسم "نو أيه آي" (NoAI)، التي تنبه أدوات جمع البيانات عبر الإنترنت إلى عدم استخراج الصور من الموقع. تعتمد المنصة حالياً على النية الحسنة لشركات الذكاء الاصطناعي لاحترام رغبات الفنانين المعلنة، لكن هذا أفضل من لا شيء.
الانسحاب من جمع البيانات
قد تساعدك قوانين حماية البيانات على دفع الشركات التكنولوجية إلى استثناء بياناتك من تدريب الذكاء الاصطناعي. إذا كنت تعيش في بلدٍ يطبق قوانين كهذه، مثل المملكة المتحدة أو أحد بلدان الاتحاد الأوروبي، يمكنك أن تطلب من الشركات التكنولوجية أن تمتثل لخيارك في الانسحاب من جمع بياناتك لتدريب الذكاء الاصطناعي. على سبيل المثال، يمكنك اتباع هذه التعليمات في حال أردت توجيه طلبك لشركة ميتا. لكن لسوء الحظ، فإن تلبية طلبات انسحاب المستخدمين في الأماكن التي لا تطبق قوانين لحماية البيانات تخضع فقط لتقديرات الشركات التكنولوجية.
يُتيح لك موقع "هاف آي بين تريند" (Have I Been Trained)، الذي أنشأته شركة سبونينغ أيه آي (Spawning AI) التي تديرها مجموعة من الفنانين، البحث لمعرفة إن كانت صورك قد انتهى بها المطاف ضمن مجموعات البيانات المفتوحة المصدر الشهيرة المخصصة لتدريب الذكاء الاصطناعي. عقدت هذه المؤسسة شراكة مع اثنتين من الشركات: شركة ستابيليتي أيه آي (Stability AI)، التي طوّرت نموذج ستيبل ديفيوجن (Stable Diffusion)، وشركة هاغينغ فيس (Hugging Face)، التي تدعم الوصول المفتوح إلى الذكاء الاصطناعي. إذا أضفت صورك إلى سجل "دو نات ترين" (Do Not Train Registry)، فقد وافقت هاتان الشركتان على إزالة صورك من مجموعات بيانات التدريب الخاصة بهما قبل تدريب أي نماذج جديدة. لكن هذا يعتمد أيضاً، لسوء الحظ، على النية الحسنة لشركات الذكاء الاصطناعي، وليس معياراً معتمداً على مستوى هذا القطاع.
اقرأ أيضاً: لماذا سيصبح تدريب نماذج الذكاء الاصطناعي الموسيقية مكلفاً للغاية؟
إذا فشلت الطرق السابقة كلّها، أضف بعض السم
تمكن باحثو جامعة شيكاغو الذين صمموا غليز من تصميم أداة "نايت شيد" (Nightshade) أيضاً، وهي أداة تُتيح لك إضافة طبقة خفية من "السم" إلى صورك. تعمل هذه الأداة، على غرار غليز، من خلال إضافة تغييرات خفية إلى البيكسلات، لكن بدلاً من أن تجعل تفكيك ترميز الصور عملية صعبة على نماذج الذكاء الاصطناعي، يمكنها أن تفسد الإصدارات اللاحقة من هذه النماذج، وتجعل سلوكها غير متوقع. على سبيل المثال، قد تتحول صور الكلاب إلى صور قطط، وقد تتحول صور الحقائب اليدوية إلى صور محامص خبز. يقول الباحثون إن عدداً قليلاً نسبياً من العينات المسمومة من هذه الصور كافٍ لإحداث أثر التسميم المطلوب.
يمكنك إضافة نايت شيد إلى صورتك من خلال تنزيل التطبيق من هنا. في المستقبل، يأمل الفريق بأن يتمكن من الجمع بين غليز ونايت شيد، لكن في الوقت الحالي، يتعين إضافة طبقتي الحماية على نحو منفصل.