لم تعد أنظمة التنبؤ الإجرامية أو ما يُطلق عليها الشرطة التنبؤية (Predictive Policing) التي تستند إلى استخدام خوارزميات الذكاء الاصطناعي مقتصرة على أفلام الخيال العلمي، بل أصبحت في العقد الأخير منتشرة في أنحاء العالم كافة ويستخدمها العديد من وكالات إنفاذ القانون، وتُعدّ واحدة من العديد من الأنظمة التي دخلت مجال العدالة الجنائية من أجل منع الجريمة والتنبؤ بها قبل وقوعها.
ولكن استخدام أدوات الذكاء الاصطناعي في العدالة الجنائية يقسّم غالباً إلى شقين؛ أحدهما يؤدي إلى تحقيق نتائج حقيقية وآخر يؤدي إلى تفاقم المشكلة بدلاً من حلها. فهل يمكن للذكاء الاصطناعي أن يجعل نظام العدالة الجنائية أكثر إنصافاً ودقة أم أنه يعمّق التحيزات ويزيد خطر وقوع الظلم؟
نمو الجرائم المدعومة بالذكاء الاصطناعي يتطلب طرقاً أكثر ابتكاراً لاكتشافها
في أثناء انعقاد جلسات الجمعية العامة السنوية للشرطة الدولية "الإنتربول" في بداية شهر نوفمبر الماضي، سلّط الحضور الضوء على التعقيد المتزايد الذي يُضفيه الذكاء الاصطناعي على تطور الجريمة من خلال استخدام التزييف العميق والمحاكاة الصوتية والوثائق المزيفة لارتكاب الجرائم، ما يشكّل تحديات كبيرة لوكالات إنفاذ القانون على مستوى العالم.
اقرأ أيضاً: 8 فوائد تقدّمها بوتات الدردشة في التحقيقات الجنائية
ومع ذلك، فإن التقدم المستمر في تكنولوجيا الذكاء الاصطناعي من شأنه أن يُتيح أيضاً لوكالات إنفاذ القانون الفرصة لزيادة صقل قدراتها في مجال التحقيق وتعزيزها، حيث بدأت بالفعل باستخدام العديد من التقنيات المدعومة بالذكاء الاصطناعي لمنع وقوع الجرائم والتقليل منها، ومن ضمنها:
الشرطة التنبؤية
من أكثر التطبيقات الواعدة التي تسهم في كشف الجرائم قبل وقوعها، فوفقاً لمؤشر المراقبة العالمية للذكاء الاصطناعي والبيانات الضخمة لعام 2022 يستخدم ما لا يقل عن 97 دولة من أصل 179 دولة شملها الاستطلاع بنشاط الذكاء الاصطناعي والبيانات الضخمة للمراقبة العامة، وتستخدم 69 دولة من هذه البلدان مفهوم الشرطة الذكية (Smart Policing). فمن خلال تحليل البيانات التاريخية يمكن لخوارزميات الذكاء الاصطناعي أن تُتيح لوكالات إنفاذ القانون الانتقال من الاستجابة للجرائم بعد وقوعها إلى منع الجرائم قبل حدوثها، وتخصيص الموارد بشكلٍ استراتيجي ما يساعد على تحسين السلامة العامة للمجتمعات والأفراد.
تكنولوجيا التعرف إلى الوجه
برزت أنظمة التعرف إلى الوجه المدعومة بالذكاء الاصطناعي كتكنولوجيا واعدة من شأنها أن تغيّر قواعد اللعبة في التحقيقات الجنائية، فمن خلال التحليل السريع للوجوه ومطابقتها مع قواعد البيانات يمكن لأجهزة إنفاذ القانون تحديد المشتبه بهم واعتقالهم بسرعة، وتُعدّ هذه التكنولوجيا ذات قيمة خاصة في الحالات التي تنطوي على تهديدات السلامة العامة أو تحديد الأشخاص الذين تم الإبلاغ عن فقدانهم مسبقاً.
مراقبة منصات التواصل الاجتماعي والاستخبارات مفتوحة المصدر
يفتح تطور تكنولوجيا الذكاء الاصطناعي آفاقاً جديدة لجمع المعلومات الاستخباراتية لوكالات إنفاذ القانون، حيث يمكن أن يوفّر تحليل بيانات منصات التواصل الاجتماعي رؤى قيمة حول الأنشطة الإجرامية والتهديدات المحتملة وحتى مكان وجود المشتبه بهم، بينما تسمح الاستخبارات مفتوحة المصدر (OSINT) المدعومة بخوارزميات الذكاء الاصطناعي لوكالات إنفاذ القانون بفحص كميات هائلة من المعلومات المتاحة للجمهور لدعم التحقيقات.
تحليل الفيديو المحسن
في السابق كان تحليل لقطات الفيديو بشكلٍ تقليدي مهمة تستغرق وقتاً طويلاً، ولكن توفر أدوات تحليل الفيديو المدعومة بالذكاء الاصطناعي (Enhanced Video Analysis) الآن جعل المهمة أسرع من أي وقتٍ مضى، حيث تُتيح للمحققين تحليل كميات كبيرة من بيانات الفيديو عن الاتجاهات والأنماط في النشاط الإجرامي، ما يساعد على تحديد المناطق عالية الخطورة والتنبؤ بنقاط الجريمة المحتملة.
تحليل الجريمة في الوقت الفعلي
تسهّل تكنولوجيا الذكاء الاصطناعي تحليل الجريمة في الوقت الفعلي من خلال المراقبة المستمرة لمصادر البيانات المختلفة بحثاً عن الأنشطة المشبوهة، حيث يسمح هذا النهج الاستباقي لأجهزة إنفاذ القانون بالاستجابة بسرعة للتهديدات الناشئة ومنع الجرائم قبل حدوثها، ويمكن لأنظمة تحليل الجريمة في الوقت الفعلي (Real-Time Crime Analysis Systems) دمج البيانات من كاميرات المراقبة وأجهزة الاستشعار والطائرات المسيرة لخلق وعي شامل وديناميكي بالحالة.
اقرأ أيضاً: ما هو التحقيق الرقمي؟ وكيف تصبح محققاً رقمياً في الجرائم الإلكترونية؟
ما هي التحديات التي تواجه تطبيق الذكاء الاصطناعي في العدالة الجنائية؟
على الرغم من أن الأنظمة المدعومة بالذكاء الاصطناعي تؤدي دوراً كبيراً في تغيير عمل وكالات إنفاذ القانون وتحويل العدالة الجنائية للأفضل من خلال زيادة الكفاءة التشغيلية وتحسين السلامة العامة، فإنها تنطوي أيضاً على العديد من المخاطر المتعلقة بالخصوصية والمساءلة، والأهم التحيزات العرقية والجنسية التي يمكن أن تكون قد تدربت عليها، ما يهدد بتقويض مبادئ الحقيقة والإنصاف والمساءلة التي تُعدّ من أساسيات العدالة الجنائية في الأنظمة القضائية كلّها.
على سبيل المثال، عام 2020 كشف تحقيق أجرته صحيفة نيويورك تايمز عن انتهاك شركة كليرفيو (Clearview) خصوصية المستخدمين من خلال جمعها أكثر من 3 مليارات صورة شخصية من فضاء الإنترنت العام، بما فيها منصات التواصل الاجتماعي، دون موافقة أصحابها، لبناء قاعدة بيانات للتعرف إلى الوجه، حيث استخدمت أنظمة الشركة العديد من وكالات إنفاذ القانون حول العالم.
وقد واجهت الشركة ردود فعل سلبية في العديد من الدول حول العالم لانتهاكها قوانين الخصوصية، وطُلب منها في بعض الدول وقف تعاونها مع وكالات إنفاذ القانون على الرغم من تقديمها العديد من الأدلة على أن أنظمتها أسهمت بالفعل في حل الكثير من القضايا. ومع ذلك، فإن المحتجين رأوا أن مثل هذه الأنظمة عرضة لارتكاب أخطاء قد تؤدي إلى تفاقم العنصرية والتحيز على أساس العرق واللون.
هناك مجالٌ آخر تبرز فيه تحديات أمام استخدام الذكاء الاصطناعي في نظام العدالة الجنائية، وهو أدلة التزييف العميق، بما في ذلك المستندات والصوت والصور ومقاطع الفيديو التي أُنشئت بواسطة الذكاء الاصطناعي، حيث أدّت هذه الظاهرة بالفعل إلى حالات يُدعي فيها أحد الطرفين أن أدلة الطرف الآخر مزيفة، ما يلقي بظلالٍ من الشك عليها حتى لو كانت حقيقية.
مثالٌ على ذلك قضية جوشوا دولين الذي واجه تهماً تتعلق بالهجوم على مبنى الكابيتول الأميركي المرافقة لانتخابات الرئاسة الأميركية 2020، حيث زعم محامي المتهم أنه ينبغي مطالبة المدعين العامين بمصادقة أدلة الفيديو التي تدينه والتي تم الحصول عليها من موقع يوتيوب، ما أثار مخاوف بشأن الاستخدام المحتمل للتزييف العميق.
اقرأ أيضاً: 4 طرق تستخدم فيها الشرطة بيانات من وسائل التواصل الاجتماعي لإنفاذ القانون
التحديات التي ينبغي التغلب عليها للاستفادة من الذكاء الاصطناعي في مجال العدالة الجنائية بكفاءة
مع كل يوم، تتعزز فرصة تكنولوجيا الذكاء الاصطناعي في دفع قطاع العدالة الجنائية للأفضل، ما يمهّد الطريق لإمكانات مستقبلية للمساعدة في نظام العدالة الجنائية وتحسين السلامة العامة في نهاية المطاف. ومع ذلك، فإن هناك العديد من التحديات التي ينبغي معالجتها للاستفادة من الذكاء الاصطناعي بالشكل الأمثل، أهمها التحيز؛ حيث يمكن أن يصبح الذكاء الاصطناعي متحيزاً إذا ظلت مجموعات البيانات المستخدمة في تدريبه متحيزة ضد مجموعة معينة من الأشخاص أو المجموعات، ما قد يقلل عدالة المحاكمات، بالإضافة إلى ذلك يمكن لأنظمة مثل الشرطة التنبؤية والتعرف إلى الوجه والمراقبة المستمرة لتحديد الجرائم أن تنتهك الحياة الخاصة لشخصٍ ما، كما يمكن أن تنتهك ممارسات جمع البيانات والمراقبة حقوق الخصوصية للأشخاص أو المجتمعات المستهدفة.
ومن ثَمَّ لمعالجة هذه المخاوف من الضروري للغاية إجراء اختبارات مستقلة لهذه الأنظمة في ظل ظروف واقعية، إلى جانب تقييم الأثر لتحديد مدى ملاءمتها للاستخدام. علاوة على ذلك، ينبغي سن تشريعات وقوانين وسياسات واضحة جديدة مصممة خصيصاً لمواجهة هذه التحديات، بالإضافة إلى مطالبة الشركات المطورة للأنظمة المستخدمة في نظام العدالة الجنائية التي تتطلع إلى التعاقد مع وكالات إنفاذ القانون بالامتثال لمتطلبات الأداء والشفافية التي قد تقلل مخاطر تحيز بيانات التدريب المستخدمة في تدريب هذه الأنظمة.