تُطوّر البلدان حول العالم على نحو سريع مجموعة أساليب لإحداث التغيير على المستوى الاجتماعي والسياسي والاقتصادي، وذلك بفضل البيانات الضخمة والذكاء الاصطناعي. ولكن ما يبدو جيداً في مكان ما غالباً ما يكون مريعاً في مكان آخر فيما يخص علم البيانات وعلماء البيانات، فقد تبنت الصين تكنولوجيا التعرف على الوجوه المتعارف عليها، الأمر الذي من شأنه أن يقلق الكثير من الأميركيين. فماذا عن علماء البيانات في فرنسا؟
وفي حين أن الناس في الولايات المتحدة غالباً ما يكونون غير متحمسين بشأن تسليم أنواع أخرى من البيانات للشركات بهدف تغذية خوارزميات تعلم الآلة، إلا أن الأوروبيين كانوا أكثر حذراً بالتعامل مع علم البيانات، إذ إنهم تبنوا مفهوم "حق المرء في أن ينسى" وحمّل "النظام الأوروبي العام لحماية البيانات" (GDPR) الشركات عبء حماية بيانات مواطني الاتحاد الأوروبي، ما أدى بالفعل إلى فرض غرامات على شركة "جوجل" تزيد عن 50 مليون دولار.
اقرأ أيضاً: عندما تحقق البيانات ميزة تنافسية
كما اتخذ "الاتحاد الأوروبي" رؤية متشككة أكثر من ناحية التحليلات، إذ طوّر مجموعة من المبادئ التوجيهية للاعتبارات الأخلاقية، مثل الشفافية وعدم التمييز فيما يتعلق ببحوث وتطوير الذكاء الاصطناعي. يبدو أن هذا المسعى هو الخطوة الأولى نحو وضع قواعد تنظيمية لمجال تطوير الذكاء الاصطناعي وذلك لحماية علماء البيانات و إعطائهم المزيد من القوة.
أما اليوم، فإن قانون فرنسا الجديد يجعل الانخراط في ما يسمى في كثير من الأحيان "التحليلات القضائية" أمراً غير قانوني، والتي تمثل (تقريباً) استخدام الإحصاءات وتعلم الآلة لفهم أو التنبؤ بالسلوك القضائي. وأحد الأمثلة الحديثة على هذا النوع من التحليل هو التالي: جمع الباحثون الأميركيون بيانات المحكمة لدراسة تجريبية حول كيف يحد الاحتجاز قبل المحاكمة من القدرة التفاوضية للمتهمين في قضايا جنائية خلال مفاوضات الإقرار بارتكاب الجريمة. ولكن إذا أُجريت الدراسة نفسها في فرنسا، فقد يجد الباحثون أنفسهم في مكان آخر بعيد عن دراستهم؛ أي أنهم بذلك يكونوا قد خرقوا القانون الجديد الذي ينطوي على عقوبة تصل إلى السجن لمدة خمس سنوات.
التنظيم القانوني لاستخدامات الذكاء الاصطناعي وعلم البيانات
في السنوات الأخيرة، حقق الذكاء الاصطناعي تقدماً استثنائياً في ممارسة القانون. وأحدثت المساعي الأخيرة للتحويل الرقمي للنصوص القانونية، من التشريعات الاتحادية إلى النصوص القانونية في قاعة المحكمة، صناعة عالمية ناشئة في التحليلات القانونية. تحاول فرنسا وقف تدفق البيانات من خلال حظر استخدام المعلومات العامة "تقييم"" كيفية اتخاذ القضاة للقراراتهم أو "تحليلها أو مقارنتها أو التنبؤ بها". والنتيجة هي أن الفرنسيين سيكون لديهم معلومات أقل حول كيفية عمل نظامهم القضائي، ولن يكون لدى الأفراد إمكانية الوصول سوى إلى القليل من الأدوات لمساعدتهم.
اقرأ أيضاً: قوانين جديدة قادمة حول خصوصية البيانات وأمنها
على الجانب الآخر، نشرت الصين مؤخراً ملايين النصوص القانونية للعموم كبيانات تدريب للأتمتة المستقبلية المستندة إلى الذكاء الاصطناعي. بينما تتبع الولايات المتحدة نهجاً يُعتبر أسوأ من الاثنين، إذ إن المستندات القانونية متاحة لكنها مقفلة ولا يمكن الوصول إليها إلا من خلال دفع رسوم لقاء كل صفحة ويب.
بحسب بعض التقديرات، فإن خوف فرنسا من استخدام البيانات هو مسألة اقتصادية، فقد يؤدي المزيد من الوصول العام إلى البيانات أو وصول الجمهور إلى البيانات المعالجة إلى الحد من الحاجة إلى محامين. ولكن هناك الكثير من الأسباب المهمة الأخرى التي يجب أخذها بعين الاعتبار حول دور البيانات الضخمة في القانون، وأحد تلك الأسباب هو مشكلة التحيز. فإن البيانات التي يخلقها البشر والمستخدمة في تدريب خوارزميات تعلم الآلة يمكن تلويثها بسهولة بالعنصرية أو التحيز القائم على أساس النوع الاجتماعي أو غيره من التحيزات.
وسوف "تتعلم" تنبؤات الآلة ما الذي سيفعله الإنسان في موقف مشابه، ما سيفضي غالباً إلى نتائج تمييزية في ضوء الإعداد الضعيف لبيانات التدريب. على سبيل المثال، تم انتقاد الأدوات التحليلية للبيانات المستخدمة في إجراءات الكفالة لتحديدها درجات بمستوى أعلى من المخاطر للمتهمين من أصحاب البشرة السمراء، ما يؤدي إلى رفض كفالتهم وبالتالي قضاء المزيد من الوقت في السجن خلال انتظار المحاكمة.
إن أدوات الذكاء الاصطناعي قد تؤدي أيضاً إلى تفاقم عدم المساواة فيما يتعلق بالثروة في النظام القانوني. وبالفعل، تُقدم الخدمات القانونية وفقاً للقدرة على الدفع، حيث يشتري الأغنياء بالمال خدمة ممثلين عنهم من أصحاب الكفاءات العالية. ويمكن للذكاء الاصطناعي تعزيز هذه الظاهرة، فيصبح الأثرياء فقط قادرين على شراء أحدث البرامج، في حين يُحتجز باقي الناس مع البشر المعززين آلياً على نحو جزئي بذاكرتهم وسرعة معالجتهم المحدودة. من ناحية أخرى، قد يؤدي تقليص الخدمات القانونية للفقراء من قبل الحكومة في النهاية إلى الاعتماد المفرط على أدوات دون المستوى من الذكاء الاصطناعي، و"ربما" المزيد من المحامين البشر الأذكياء وبرامج مخصصة محفوظة للأثرياء.
اقرأ أيضاً: في الموارد البشرية لا وجود لما يسمى "بيانات ضخمة"
إلا أن الحظر نهج غير صائب ويؤدي إلى الحرمان من النتائج الجيدة المحتملة بسبب تلك النتائج السيئة. وقبل كل شيء، قد يكون هذا الأمر غير قانوني، إذ يحمي كل من "الدستور الفرنسي" و"الاتفاقية الأوروبية لحقوق الإنسان" حرية التعبير، وهو ما يقيده هذا القانون. من المنظور العملي، يمكن أن تساعد أدوات الذكاء الاصطناعي على توسيع نطاق الوصول إلى المحاكم والحصول على المشورة القانونية، والتي غالباً ما تكون خدمات مكلفة ومتاحة فقط للأثرياء.
بالفعل، بدأت الشركات في مساعدة المحاكم على إنشاء منصات على الإنترنت لا تجبر الناس على أخذ إجازة من العمل أو السفر لمسافات طويلة لمعالجة المشكلات القانونية. إن تعلم الآلة لديه إمكانات كبيرة للمساعدة في تبسيط عملية صنع القرار الحكومي وتحسينها ضمن طائفة من الحالات، خاصة عندما يجب حل مسائل مماثلة بأعداد كبيرة.
إن حظر تحليل الآراء القضائية لا يمنع استحداث روبوتات يمكنها أداء مهام المحامي أو يعيق الابتكار التكنولوجي القانوني فحسب، بل إنه يحظر البحث على حد سواء. قد يفضل القضاة أن يتم عزلهم على هذا النوع من التدقيق الخارجي الذي اكتشف على سبيل المثال قدراً مروعاً من التعسف في إجراءات الهجرة في الولايات المتحدة، لكن الجمهور وصانعي السياسات يحق لهم الوصول إلى هذه المعلومات.
التحول الرقمي للنصوص القانونية
كان التحويل الرقمي للنصوص القانونية بمثابة نعمة للباحثين الذين يدرسون ممارسات المحاكم والمؤسسات القانونية الأخرى. في كتابنا الأخير "القانون من خلال البيانات" (Law as Data)، ننظر في كيفية استخدام الباحثين لهذه البيانات لدراسة كل شيء ابتداء من "المحكمة العليا الأميركية" و"مجالس الإفراج الشرطي في كاليفورنيا" وليس انتهاء بـ "تشريع قوانين الولايات" و"هيكل القانون التشريعي الأوروبي". وإذا قمنا بإدراج فصل عن المحاكم الفرنسية، فقد يتم حظر الكتاب في هذا البلد، ما يُعتبر بمثابة عاقبة عبثية من شأنها أن تجمد سير البحوث وتضعف جودة الخطاب العام حول صنع القرارات القانونية.
إن حظر التحليل الإحصائي للآراء القانونية هو أمر سخيف وربما عديم الجدوى، لكن هذا لا يعني أنه لا يوجد شيء يمكن القيام به لتوقع المخاطر الناتجة عن نظام قانوني معزز تكنولوجياً ومعالجتها. ما نحتاج إليه هو المزيد من البيانات القانونية الشفافة والتي يمكن الوصول إليها، بالإضافة إلى سياسات ومبادرات مناسبة. يمكن أن تلعب الولايات المتحدة دوراً قيادياً من خلال إتاحة "خدمة الوصول العام لقاعدة البيانات الخاصة بالوثائق القانونية" (PACER)، والتي لا يمكن الوصول إليها حالياً إلا من خلال دفع رسوم.
ستقدم هذه البيانات للباحثين وشركات التكنولوجيا كنزاً دفيناً من البيانات التي يمكن استخدامها لدراسة النظام القانوني وتطوير تكنولوجيات جديدة على حد سواء، وذلك لتحسين فرص الوصول إلى العدالة. وبالمثل، يمكن إتاحة مواد قانونية أخرى، مثل قرارات مجالس الإفراج المشروط أو الأحكام المتعلقة باستحقاقات الأشخاص الذين يعانون من العجز الصحي.
استفادة المحاكم من التطورات التكنلوجية وأنظمة تحليل البيانات
ينبغي أن تكون المحاكم على جميع المستويات أكثر قوة فيما يتعلق باستخدام التكنولوجيا للحد من أعباء النظام القانوني، خاصة على الفقراء. في الوقت نفسه، يجب تثقيف صناع القرار حول المخاطر التي تصاحب التكنولوجيا وتحليلات البيانات، ويجب أن تخضع أي تقنية لمعايير عالية قبل توظيفها. ويجب أن يكون أيضاً من ضمن الأولويات تمويل البحث الذي يستكشف على وجه التحديد التحيز والتمييز في النظم القانونية المعززة آلياً ومعالجتها.
قد تكون الروبوتات التي يمكنها أداء مهام المحامي بعيدة المنال، لكن هناك عمليات تحول أخرى سارية العمل فعلاً في مجال حماية علماء البيانات وتعزيز عملهم، إذ تدرك شركات التكنولوجيا والباحثون على حد سواء أهمية البيانات والتقنيات التحليلية الجديدة لتعزيز النظام القانوني وتطويره. إن محاولة فرنسا لحظر تحليل البيانات لن توقف هذا الامتداد، على الرغم من أنها قد تعيق التقدم محلياً. لكن هذا لا يعني أن صانعي السياسة يمكنهم اتباع سياسة عدم التدخل، بل يجب عليهم إنشاء قنوات مفتوحة وشفافة للمعلومات يرافقها أيضاً الاهتمام بتفاصيل مزايا ومخاطر أي تقنيات جديدة يتم دمجها في النظام القانوني.
ويبقى الوصول إلى العدالة أحد أهم الالتزامات التي يقدمها المجتمع للناس، ويمكن أن تساعدنا التقنيات الحديثة على الوفاء بذلك الالتزام تجاه علماء البيانات في فرنسا، ولكن فقط إذا أبقينا عيناً ساهرة على تطبيق الآليات التي تطور علم البيانات.
اقرأ أيضاً: فريقك ليس بحاجة لعالم بيانات من أجل القيام بالتحليلات البسيطة للبيانات