هل يمكن للذكاء الاصطناعي أن يكون شرطياً وقاضياً؟ وما خطورة ذلك؟

5 دقائق
هل يمكن للذكاء الاصطناعي أن يكون شرطياً وقاضياً؟ وما خطورة ذلك؟
حقوق الصورة: غيتي إيميدجيز بلس

تخيل مستقبلاً يفسّر فيه الذكاء الاصطناعي القوانين وينفّذها تلقائياً، مستقبلاً تتلقى فيه باستمرار تعليمات شخصية للغاية حول كيفية الامتثال للقانون، ترسلها الحكومة أو وكالات تطبيق القانون. ستتلقى في هذا السيناريو توجيهات حول كيفية عبور الشارع وسرعة قيادة السيارة في طريقك إلى العمل وما يُسمح لك بقوله أو فعله على الإنترنت. وإذا كنت في أي موقف قد يكون له عواقب قانونية، ستملي عليك هذه الجهات بالضبط ما يجب عليك فعله، في الوقت الحقيقي.

تخيّل أن نظام الكمبيوتر الذي يصوغ هذه التوجيهات القانونية الشخصية على نطاق واسع معقد للغاية لدرجة أنه لا يمكن لأحد أن يفسّر كيف يحاكِم أو يعمل. إذا تجاهلت أحد هذه التوجيهات، سيعرف النظام بذلك، وسيُستخدم هذا الخرق على أنه دليل في المحاكمة التي لا شك في أنك ستخضع لها.

الكشف التلقائي عن حالات خرق القانون ليس جديداً

قد لا يكون هذا المستقبل بعيد المنال؛ إذ إن الكشف التلقائي عن حالات خرق القانون ليس جديداً. استُخدمت كاميرات السرعة وكاميرات إشارات المرور منذ سنوات، وتُصدر هذه الأنظمة مذكّرات إلى مالك السيارة تلقائياً بناءً على أرقام لوحة ترخيص سيارته. في مثل هذه الحالات، يُفترض أن المدّعى عليه مذنب ما لم يثبت خلاف ذلك، وذلك من خلال تسمية السائق وإخطاره.

في مدينة نيويورك، تستخدم الشركات أنظمة الذكاء الاصطناعي المزودة بتكنولوجيا التعرف على الوجه للتعرّف على سارقي المتاجر. ويستخدم تجار التجزئة أنظمة مشابهة مدعومة بالذكاء الاصطناعي في أستراليا والمملكة المتحدة لتحديد هوية سارقي المتاجر وإرسال تنبيهات مخصصة في الوقت الحقيقي للموظفين أو أفراد الأمن. تجرّب الحكومة الصينية أنواعاً أكثر شدّة من طرق تطبيق القانون المؤتمتة والمراقبة المستهدِفة.

تعتبر أجهزة قياس الكحول في الدم مثالاً آخر على الكشف التلقائي. تقدّر هذه الأجهزة نسبة الكحول في الدم من خلال حساب عدد جزيئات الكحول في النفَس بالاستفادة من تفاعل كهركيميائي أو تحليل الأشعة تحت الحمراء (هذه الأجهزة هي أجهزة كمبيوتر مزودة بخلايا الوقود أو مقاييس الطيف). ولا يخلو استخدام هذه الأجهزة من الجدل؛ إذ وجدت المحاكم في جميع أنحاء الولايات المتحدة عيوباً خطيرة وأوجه قصور فنية فيها وفي البرمجيات التي تشغّلها. على الرغم من ذلك، يعاني المدّعى عليهم الجنائيون في الوصول إلى هذه الأجهزة أو الشيفرات المصدرية لبرمجياتها؛ إذ ترفض الشركات المصنعة والمحاكم منحهم ذلك. في الحالات القليلة التي أمرت فيها المحاكم بالفعل بالكشف عن هذه المعلومات، حدث ذلك عادة بعد معارك قانونية مكلفة امتدت لسنوات عديدة.

اقرأ أيضاً: قانون فرنسي يُبعد علماء البيانات عن المحاكم

توجيهات جزئية من أنظمة الذكاء الاصطناعي لتطبيق القانون

الذكاء الاصطناعي على وشك أن يجعل هذه المشكلة أعقد، ويمكن أن يوسع للغاية نطاق القوانين التي يمكن تطبيقها بهذه الطريقة. يتنبّأ بعض الباحثين القانونيين أن القوانين التي يُضفى عليها الطابع الشخصي حوسبياً وإنفاذها آلياً هي مستقبل القانون. وفقاً لأنتوني كيسي وأنتوني نيبليت، ستدير "التوجيهات الجزئية" هذا القانون، وهي توجيهات تقدّم تعليمات فردية تتعلق بالامتثال للقانون في سيناريو معين.

ستمثّل التوجيهات الجزئية، التي أصبح تطبيقها ممكناً بسبب التقدم في مجال المراقبة وتكنولوجيا الاتصالات وتحليلات البيانات الضخمة، نوعاً جديداً وسائداً من القانون الذي تصوغه الآلات إلى حد كبير. هذه التوجيهات "جزئية" لأنها ليست قواعد أو معايير عامة غير شخصية، بل مصممة لظروف محددة، وهي "توجيهات" لأنها تفرض تطبيق الإجراءات أو عدم تطبيقها بموجب القانون.

تعد عملية الإخطار والإزالة التي تُجرى بموجب قانون الألفية للملكية الرقمية، وهو قانون حقوق النشر في الولايات المتحدة، مثالاً حالياً على التوجيهات الجزئية. يُطبَّق هذا القانون على نحو مؤتمت بالكامل تقريباً؛ إذ تبحث "بوتات" حقوق النشر باستمرار عن المحتوى الذي ينتهك حقوق النشر على الإنترنت، وترسل تلقائياً مئات الملايين من إخطارات الإزالة بموجب القانون يومياً إلى المنصات والمستخدمين. تصاغ هذه الإخطارات وفقاً للظروف القانونية الخاصة بالمستلم، كما أنها توجّه الإجراءات بناءً على القانون، أي تحث المستلم على إزالة المحتوى المستهدف أو إثبات أنه لا يمثل انتهاكاً.

من السهل استنتاج أن بالإمكان إعادة تصميم أنظمة الذكاء الاصطناعي التي يستخدمها تجار التجزئة لكشف سارقي المتاجر بهدف تطبيق التوجيهات الجزئية. بالإضافة إلى تنبيه أصحاب الأعمال، يمكن لهذه الأنظمة أيضاً إرسال تنبيهات إلى الأشخاص المكشوفين أنفسهم، مع توجيهات أو إخطارات قانونية مصممة لهم خصيصاً.

اقرأ أيضاً: كيف تعوق البرمجيات مفتوحة المصدر هيمنة الشركات التكنولوجية الكبرى على الذكاء الاصطناعي؟

مفاقمة المشكلات المتعلقة بالإنصاف والشفافية والحرية

سيؤدي استخدام الذكاء الاصطناعي لتفسير معظم القوانين وتطبيقها على نطاق مجتمعي مثل هذا إلى مفاقمة المشكلات المتعلقة بالإنصاف والشفافية والحرية على نحو بليغ. ستصبح الشفافية في استخدام البرمجيات من الماضي؛ إذ إن شركات الذكاء الاصطناعي التي تتمتع بموارد وفيرة، مثل شركات تصنيع أجهزة قياس الكحول في الدم، ستحمي أنظمتها بشدة لأسباب تنافسية دون شك. ستكون هذه الأنظمة على الأرجح معقدة للغاية لدرجة أن مصمميها لن يتمكنوا من شرح كيف تفسّر أدوات الذكاء الاصطناعي القانون وتطبّقه، وهي ظاهرة شهدناها بالفعل في أنظمة شبكات التعلم العميق العصبية اليوم، والتي لا تستطيع تفسير الطرق التي تحاكِم وفقها.

القانون نفسه يمكن أن يصبح واسعاً وغامضاً على نحو ميؤوس منه. يمكن أن تخلق التوجيهات الجزئية القانونية المرسلة بالجملة في عدد لا يحصى من السيناريوهات، التي يمثل كل منها نتائج قانونية موثوقة صاغتها عمليات حسابية غامضة، مجموعة من القوانين الموسّعة التي تزداد تعقيداً ومن شأنها أن تنمو دون حدود.

اقرأ أيضاً: كيف تتمكن الشركات المشبوهة من تخمين معلوماتك الشخصية الخاصة؟

كيف سترد على التهم الموجهة لك من كمبيوتر؟

يقودنا هذا إلى لب الموضوع. إذا اتهمك كمبيوتر بتهمة ما، هل يحق لك مراجعة الآليات الداخلية لهذا الكمبيوتر وربما الطعن في دقتها في المحكمة؟ وما الشكل الذي ستأخذه عملية استجواب الشهود عندما يكون شاهد المدعي العام هو كمبيوتر؟ كيف يمكنك الوصول إلى التوجيهات الجزئية ذات الصلة بقضيتك جميعها وتحليلها وفهمها بهدف تحدّي التفسير القانوني لأداة الذكاء الاصطناعي؟ وكيف يمكن أن تضمن المحاكم تطبيق القانون بعدل؟ ستموت في انتظار الوصول إلى القانون، مثل الرجل في حكاية فرانس كافكا بعنوان "المحاكمة" (The Trial)، وذلك لأن القانون غير مفهوم ولا حدود له.

سيمثّل هذا النظام تهديداً غير مسبوق للحرية. سيكون تطبيق آليات المراقبة الواسعة الانتشار التي يدعمها الذكاء الاصطناعي في المجتمع ضرورياً لتمكين هذا الإنفاذ المؤتمت للقانون. بالإضافة إلى ذلك، أظهرت الأبحاث، ومنها الدراسات التجريبية التي أجراها جوناثان بيني، أن التهديدات أو الأوامر القانونية الشخصية التي تصدرها مصادر السلطة، أي الدول أو الشركات، يمكن أن يكون لها آثار كبيرة ومخيفة في استعداد الناس للتحدث بحرية أو التصرف بحرية. تخيل أن تتلقى تعليمات قانونية محددة للغاية من إحدى وكالات تطبيق القانون حول ما يجب قوله أو فعله في موقف ما. هل ستشعر أن لديك خيار التصرّف بحرية؟

اقرأ أيضاً: ما هي نزعة الحلول التكنولوجية وكيف أثّرت في انتشار أدوات الذكاء الاصطناعي؟

موت فعلي للقانون

هذه رؤية لمستقبل قانون الذكاء الاصطناعي الجائر والبيزنطي مخيفة للغاية. سيكون هذا النظام مختلفاً عن أي نظام قانوني آخر في تاريخ البشرية، وسيكون أخطر على حرياتنا. في الواقع، يجادل بعض الباحثين القانونيين بأن هذا المستقبل سيمثّل موت القانون فعلياً.

مع ذلك، فهو ليس مستقبلاً علينا القبول به. يمكن توسيع نطاق الحظر المقترح على تكنولوجيا المراقبة، مثل أنظمة التعرف على الوجه، ليشمل تلك التي تسهّل تطبيق القانون المؤتمت الجائر. يمكن للقوانين افتراض أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير والشرح بهدف ضمان أن يتمكن الجميع من فهم كيفية عمل هذه الأنظمة وتفسيرها. إذا كان النظام شديد التعقيد، ربما ينبغي ألا يُطبّق في السياقات القانونية. يجب أن يكون تطبيق القانون من خلال العمليات القانونية الشخصية خاضعاً لدرجة عالية من التنظيم لضمان الرقابة، ويجب ألّا يُستخدم إلا عندما تكون العواقب الخطيرة غير مرجّحة، كما هو الحال في حالة الإدارة الحكومية المعتدلة أو السياقات التنظيمية عندما لا تكون الحقوق والحريات الأساسية في خطر.

اقرأ أيضاً: من داعم لتطويره إلى محذّرٍ منه: لماذا يخشى إيلون ماسك الذكاء الاصطناعي؟

سيغيّر الذكاء الاصطناعي مسار القانون في النهاية. ولا شك في أنه فعل ذلك بالفعل. لكننا لسنا مجبرين على قبول تجسيداته الأكثر تطرفاً، سواء اليوم أو في المستقبل.