إليك هذا السؤال الغريب: تخيل أننا في العام 2023، وأن السيارات ذاتية القيادة انتشرت في شوارع مدننا أخيراً. وللمرة الأولى، تقوم إحدى هذه السيارات بصدم شخص ما من المشاة وتتسبب بمقتله، مع تغطية إعلامية شاملة. من المرجح أن تُرفع دعوى قضائية عالية المستوى، ولكن ما القوانين التي ستُطبق؟
اليوم، سنحصل أخيراً على جواب تقريبي، بفضل عمل جون كينجستون في جامعة برايتون في المملكة المتحدة، والذي يرسم لنا المشهد في هذا الحقل القانوني غير المسبوق، ويثير تحليله بعض المسائل الهامة حول التقاطع المتوقع لعوالم الأتمتة والحوسبة والقانون، على فرض أن الاحتكاك بينها لم يبدأ من قبل.
تظهر في قلب هذا النقاش المحتدم مسألة إشكالية للغاية، وهي ما إذا كان من الممكن تحميل نظام الذكاء الاصطناعي المسؤولية القانونية عن أفعاله. ويقول كينجستون أن جابرييل هايفي في جامعة أونو قام بدراسة هذه المسألة بالتفصيل.
عادة ما تتطلب المسؤولية القانونية وجود فعل جرمي ونية عقلية جرمية (في المصطلحات القانونية: أكتوس ريا ومينس ريا (بالترتيب)، وهما عبارتان لاتينيتان). يقول كينجستون أن هاليفي درس ثلاثة سيناريوهات يمكن أن تنطبق على أنظمة الذكاء الاصطناعي.
السيناريو الأول، والذي يطلق عليه اسم ارتكاب الجرم عن طريق وسيط، يمكن أن يُطبق عندما يتم ارتكاب الجريمة من قبل شخص عاجز عقلياً أو حيوان، أي أن المرتكب المباشر يعتبر بريئاً. ولكن يمكن تحميل المسؤولية الجرمية لأي شخص يقوم بتوجيه هذا الشخص العاجز عقلياً أو الحيوان، مثل شخص يمتلك كلباً ويطلب منه أن يهاجم شخصاً آخر.
تطبق نتائج هذا السيناريو على مصممي ومستخدمي تلك الآلات الذكية. يقول كينجستون: "يمكن أن يعتبر برنامج الذكاء الاصطناعي وسيطاً بريئاً، بحيث يعتبر المبرمج أو المستخدم مجرماً عن طريق وسيط".
يطلق على السيناريو الثاني اسم النتيجة الطبيعية المحتملة، ويحدث عندما تؤدي الأفعال الطبيعية لنظام الذكاء الاصطناعي إلى ارتكاب فعل جرمي. يقدم كينجستون مثالاً على هذه الحالة، وهو روبوت مزود بذكاء اصطناعي في معمل ياباني للدراجات النارية تسبب بمقتل عامل بشري، ويقول: "اعتبر الروبوت بشكل خاطئ أن الموظف يمثل خطراً على عمله، واستنتج بالحساب أن أفضل طريقة لإزالة هذا الخطر هو بدفعه نحو آلة مجاورة. وبالتالي، استخدم الروبوت ذراعه الهيدروليكية فائقة القوة لدفع العامل المتفاجئ، وبشكل عنيف، نحو الآلة، ما أدى إلى مقتله على الفور، ومن ثم تابع الروبوت عمله بشكل اعتيادي". السؤال الهام في هذه الحالة هو ما إذا كان مبرمج الآلة يعرف بأن استخدامها قد يؤدي إلى هذه الحادثة.
أما السيناريو الثالث فهو المسؤولية المباشرة، وتتطلب وجود الفعل والنية في نفس الوقت. يجب إثبات الفعل بشكل واضح، ويعرف هنا بأنه اتخاذ إجراء يؤدي إلى فعل جرمي، أو عدم اتخاذ إجراء واجب، بشكل يؤدي إلى فعل جرمي. من ناحية أخرى، فإن تعريف النية أصعب بكثير، ولكنها ما تزال مهمة. يقول كينجستون: "يعتبر تجاوز السرعة مخالفة ذات مسؤولية مقيدة (أي أن إثبات النية غير مطلوب بالضرورة). وبالتالي، وفقاً لهاليفي، إذا تجاوزت سيارة ذاتية القيادة حدود السرعة، يمكن من الناحية القانونية تحميل المسؤولية لبرنامج الذكاء الاصطناعي الذي كان يقود السيارة في ذاك الوقت"، أي أن مالك السيارة قد يكون غير مسؤول في هذه الحالة.
هناك أيضاً مسألة الدفاع. إذا كان بالإمكان تحميل نظام الذكاء الاصطناعي المسؤولية القانونية، فأي دفاع يمكن أن يلجأ إليه؟ يعدد كينجستون بعض الاحتمالات: هل يمكن لبرنامج معطل أن يدافع عن نفسه بشكل مماثل لدفاع الشخص عن نفسه بحجة الإصابة بالجنون؟ هل يمكن لبرنامج ذكاء اصطناعي مصاب بفيروس إلكتروني أن يدافع عن نفسه بشكل مماثل لادعاء ارتكاب الجرم بالإكراه أو نتيجة تناول مادة معينة تؤثر على المحاكمة العقلية؟ ليست هذه الدفاعات مجرد مفاهيم نظرية على الإطلاق. حيث يذكر كينجستون بعضاً من القضايا في المملكة المتحدة ضد أشخاص متهمين بجرائم ذات علاقة بالحواسيب، حيث دافعوا عن أنفسهم بنجاح بحجة إصابة آلاتهم ببرمجيات خبيثة كانت هي المسؤولة عن ارتكاب الجريمة.
في إحدى تلك القضايا، اتهم قرصان معلوماتي مراهق بتنفيذ هجمة حرمان من الخدمة (أي قطع اتصال جهاز أو شبكة بالإنترنت)، وادعى المتهم أن برنامجاً خبيثاً من نوع حصان طروادة (تروجان) كان مسؤولاً عن الهجمة، وبعد ذلك مسح نفسه عن الحاسب قبل أن تتاح الفرصة لتحليله جنائياً. يقول كينجستون: "تمكن محامي المدعى عليه من إقناع هيئة المحلفين أن هذا السيناريو كان ضمن حدود الشك المعقول".
أخيراً، هناك مسألة العقوبة. إذا أثبتت مسؤولية نظام ذكاء اصطناعي عن جريمة ما، من أو ماذا يمكن أن يعاقَب؟ وما هو شكل هذه العقوبة؟ حالياً، لا توجد إجابة عن هذه الأسئلة.
ولكن في حال لم تطبق المسؤولية الجرمية، يجب حل القضية باللجوء إلى القانون المدني. وهنا يظهر سؤال هام آخر حول تصنيف الذكاء الاصطناعي كمنتج أو خدمة.
إذا اعتبر الذكاء الاصطناعي منتجاً، يجب تطبيق تشريع تصميم المنتجات بناء على كفالة ما، على سبيل المثال. أما في حال اعتباره خدمة، تنطبق عليه مسألة الضرر الناتج عن الإهمال. وفي هذه الحالة، يجب على المدعي إثبات عناصر الإهمال الثلاثة. الأول هو وجود واجب عناية على المدعى عليه، وعادة ما يكون سهل الإثبات، على الرغم من أن معيار العناية قد يكون صعب التحديد في حالة الذكاء الاصطناعي، كما يقول كينجستون. العنصر الثاني هو خرق هذا الواجب من قبل المدعى عليه، أما الثالث فهو أن هذا الخرق تسبب بالأذى للمدعي.
ويبدو أن الموضوع سيزداد تعقيداً فوق كل ما سبق، حيث أن التوصيف القانوني لنظام الذكاء الاصطناعي قد يتغير مع ازدياد قدرات الذكاء الاصطناعي واقترابها من القدرات البشرية، وربما تجاوزها في بعض الأحيان. من المؤكد أن السنوات المقبلة ستشهد الكثير من النشاط للمحامين، وربما بعض المواقف الطريفة، حول هذا الموضوع إذا لم تحل أنظمة الذكاء الاصطناعي محلهم أيضاً.