كيف يمكن بناء نموذج ذكاء اصطناعي لكشف المحتوى المسيء؟

4 دقيقة
كيف يمكن بناء نموذج ذكاء اصطناعي لكشف المحتوى المسيء؟
مصدر الصورة التوضيحية: سارة روجرز/ إم آي تي تي آر | فوتوز غيتي

ملخص: سبب الذكاء الاصطناعي التوليدي بزيادة هائلة في المحتوى السلبي على الإنترنت، ولهذا أطلقت منظمة هيومين إنتليجينس، برعاية من جوجل دوت أورغ، مجموعة مؤلفة من 10 برامج مسابقات مع جوائز للتعامل مع هذه المسألة، ففي البرنامج الأول، طلبت من المتسابقين تقييم الثغرات في عينات من مجموعات البيانات التدريبية، وهي ثغرات قد تدفع النماذج إلى إنتاج مخرجات خاطئة أو متحيزة أو مضللة، أما التحدي الثاني فيركز على تتبع الصور الباعثة على الكراهية عبر الإنترنت، وذلك من خلال بناء نموذج لكشف الصور الباعثة على الكراهية، وهو تحدٍّ متوسط المستوى، وبناء نموذج آخر يحاول خداع النموذج الأول، وهو تحدٍّ عالي المستوى. يمثل هذا التحدي محاكاة للتجاذب على الإنترنت بين المجموعات الخبيثة التي تسعى إلى نشر المحتوى الباعث على الكراهية، والمجموعات الخيّرة التي تسعى إلى مكافحة هذا المحتوى، مع التركيز على السياقات الثقافية المحيطة بهذه الحملات الدعائية المغرضة، وهو ما دفع بهيومين إنتليجينس إلى التعاون في هذا البرنامج مع مجموعة ريفونتيوليت الاسكندنافية المختصة بمكافحة الإرهاب.

مع تزايد عدد الجهات الخبيثة التي تستخدم الذكاء الاصطناعي التوليدي لتوليد الصور الباعثة على الكراهية ونشرها عبر الإنترنت، تسعى منظمة هيومين إنتليجينس (Humane Intelligence) إلى اتباع نهج التعهيد الجماعي للبحث عن طرق لاستخدام الذكاء الاصطناعي في تتبع هذه الظاهرة ومكافحتها.

تركز منظمة هيومين إنتليجينس على تقييم أنظمة الذكاء الاصطناعي، وقد أطلقت مسابقة تتضمن تحدياً موجهاً إلى المطورين البرمجيين لبناء نموذج رؤية حاسوبية قادر على تتبع الحملات الدعائية التي تعتمد على الصور الباعثة على الكراهية عبر الإنترنت. جرى تنظيم هذه المسابقة بالتعاون مع المجموعة الاسكندنافية لمكافحة الإرهاب ريفونتيوليت (Revontulet)، وقد انطلق برنامج الجوائز المخصصة لهذه المسابقة في 26 سبتمبر/أيلول. هذا البرنامج مفتوح أمام كل الراغبين في المشاركة ممن يبلغون من العمر 18 عاماً على الأقل، ويعد الفائزين بجوائز قدرها 10,000 دولار.

اقرأ أيضاً: أداة جديدة تُتيح لنا مخاطبة الذكاء الاصطناعي لتجنب تحيزاته

"جوائز مخصصة لكشف التحيز الخوارزمي"

هذا البرنامج هو الثاني من نوعه ضمن سلسلة مؤلفة من 10 برامج "جوائز مخصصة لكشف التحيز الخوارزمي" خططت هيومين إنتليجينس لتنظيمها مسبقاً، وهي منظمة غير ربحية تدرس التأثير المجتمعي للذكاء الاصطناعي، وقد أطلقتها الباحثة البارزة في مجال الذكاء الاصطناعي رومان تشاودري في 2022. تحظى سلسلة البرامج هذه بدعم مؤسسة جوجل دوت أورغ (Google.org)، وهي تمثل الذراع الخيرية لشركة جوجل.

تقول تشاودري: "يهدف برنامج الجوائز الذي أطلقناه إلى تعليم الناس كيفية إجراء عمليات تقييم الخوارزميات، أولاً، وإيجاد حل فعلي لمشكلة ملحّة في هذا الحقل، ثانياً".

يتطلب التحدي الأول من المشاركين تقييم الثغرات في عينات من مجموعات البيانات التي قد يجري استخدامها في تدريب النماذج، وهي ثغرات قد تؤدي على وجه التحديد إلى إنتاج مخرجات متحيزة أو مضلِّلة أو تتضمن معلومات خاطئة.

أما التحدي الثاني فيركز على تتبع الصور الباعثة على الكراهية عبر الإنترنت، وهي معضلة فائقة التعقيد. لقد أدى الذكاء الاصطناعي التوليدي إلى زيادة هائلة جداً في انتشار هذا النوع من المحتوى، كما يجري استخدام الذكاء الاصطناعي أيضاً من أجل التلاعب بالمحتوى بحيث لا يتعرض للإزالة عن منصات التواصل الاجتماعي. على سبيل المثال، قد تستخدم مجموعة متطرفة الذكاء الاصطناعي من أجل إجراء تعديلات طفيفة على صورة حظرتها إحدى المنصات، ما يتيح لها إنتاج المئات من النسخ المختلفة التي لا يمكن لأنظمة الكشف الآلية كشفها بسهولة، وبسرعة فائقة. يمكن أيضاً لشبكات الجهات المتطرفة أن تستخدم الذكاء الاصطناعي لتضمين نمط معين في صورة ما، بحيث لا تستطيع العين البشرية المجردة رؤيته، لكن من شأنه أن يربك أنظمة الكشف ويتملص منها. لقد أدى ذلك أساساً إلى ظهور ما يشبه لعبة القط والفأر بين الجماعات المتطرفة والمنصات العاملة على الإنترنت.

مكافحة المحتوى السيئ على الإنترنت

يتطلب التحدي بناء نموذجين مختلفين. يمثل بناء النموذج الأول مهمة لأصحاب المهارات المتوسطة، وهو نموذج يكشف الصور الباعثة على الكراهية. أما بناء النموذج الثاني فيمثل تحدياً أصعب، فهو نموذج يحاول خداع النموذج الأول. تقول تشاودري: "تمثل هذه التحديات محاكاة لما يحدث في العالم الحقيقي. فالأخيار يصممون طريقة معينة، وبعد ذلك، يصمم الأشرار طريقة أخرى". تهدف المسابقة إلى دفع باحثي التعلم الآلي إلى الانخراط في موضوع تخفيف آثار التطرف، وهو ما قد يؤدي إلى بناء نماذج جديدة تستطيع تفحص الصور الباعثة على الكراهية بدرجة أعلى من الفعالية.

يكمن التحدي الأساسي الذي يواجهه المشروع في أن الحملات الدعائية المحرضة على الكراهية قد تعتمد بدرجة كبيرة على سياقها الخاص. وإذا لم يكن لدى الشخص الذي يتعامل مع هذه الحملات فهم عميق لبعض الرموز أو الدلالات، فقد لا يتمكن حتى من تحديد السمات المميزة لحملة دعائية ما.

يقول أستاذ علوم الكمبيوتر في جامعة واترلو، جيمي لين، الذي لا تربطه صلة ببرنامج الجوائز: "إذا لم يرصد النموذج مثالاً على صورة باعثة على الكراهية من مكان ما من العالم على الإطلاق، فلن يجيد كشف هذه الصور على الإطلاق".

اقرأ أيضاً: من أسباب هلوسة الذكاء الاصطناعي: الأشخاص المكلفون بتدريبه يعهدون بعملهم إليه

العمل مع مجموعات ثقافية مختلفة لكشف تحيز الخوارزميات

يتعاظم هذا الأثر على المستوى العالمي، بما أن الكثير من النماذج لا يمتلك معرفة واسعة بالسياقات الثقافية المختلفة. لهذا، قررت هيومين إنتليجنس أن تتعاون مع مؤسسة غير أميركية في هذا التحدي على وجه التحديد. تقول تشاودري: "غالباً ما تخضع أغلبية هذه النماذج إلى عملية ضبط دقيق وفق أمثلة أميركية، ولهذا، من المهم أن نعمل بالتعاون مع مجموعة اسكندنافية لمكافحة الإرهاب".

لكن لين يحذر من أن حل هذه المشاكل قد يحتاج إلى أكثر من مجرد تغييرات خوارزمية. "لدينا نماذج تولد محتوى مزيفاً. إذاً، هل يمكننا تطوير نماذج أخرى قادرة على كشف هذا المحتوى المزيف الناتج؟ من المؤكد أنها إحدى الطرق التي يمكن أن تحقق هذا الهدف"، على حد قول لين. ويضيف قائلاً: "لكنني أعتقد أنه على المدى البعيد، ستكون الجهود التي تركز على التدريب والتثقيف والتعليم أكثر نفعاً وأكثر قدرة على إحداث تأثيرات تدوم فترة أطول. ففي هذه الحالة، لن نكون عرضة للعبة القط والفأر تلك".

يستمر التحدي حتى 7 نوفمبر/تشرين الثاني، 2024. سيجري اختيار فائز واحد لكل من التحدي المتوسط والتحدي المتقدم، وسيتلقى الفائز بالتحدي المتوسط جائزة قدرها 4,000 دولار، أما الفائز بالتحدي المتقدم فسوف يتلقى جائزة قدرها 6,000 دولار. أيضاً، ستجري مجموعة ريفونتيوليت عملية فحص لنماذج الفائزين، وقد تقرر على إثر هذه العملية أن تضيف هذه النماذج إلى مجموعتها الحالية من الأدوات المخصصة لمكافحة التطرف.

المحتوى محمي