كان الأسبوع الماضي حافلاً بالردود الحكومية على إساءة استخدام الذكاء الاصطناعي.
فقد أصدر الاتحاد الأوروبي، يوم الأربعاء قبل الماضي، مجموعة لوائح الذكاء الاصطناعي التي طال انتظارها، والتي تسربت مسودة مبكرة منها قبل أسبوعين. وقد جاءت هذه اللوائح واسعة النطاق، وتضمنت فرض قيود على عمليات المراقبة الجماعية واستخدام الذكاء الاصطناعي للتلاعب بالناس.
بيد أن إعلاناً للنوايا صادراً عن لجنة التجارة الفدرالية الأميركية -ورد ذكره في منشور قصير كتبته المحامية إليسا جيلسون يوم 19 أبريل الجاري، على مدونة اللجنة- قد يُحدِث تأثيراً أشد قوة في المستقبل القريب؛ حيث تعتزم اللجنة -بحسب المنشور- ملاحقة الشركات التي تستخدم أو تبيع خوارزميات متحيزة.
ويقول ريان كالو، الأستاذ في جامعة واشنطن والذي يعمل في مجال التكنولوجيا والقانون، إن هناك عدداً من الشركات تشعر بالرعب حالياً. ويضيف: "الأمر ليس مجرد منشور في مدونة. هذا المنشور هو مثال صارخ على ما يبدو أنه سيكون تغييراً جذرياً".
Woah, woah, WOAH. An official @FTC blog post by a staff attorney noting that "The FTC Act prohibits unfair or deceptive practices. That would include the sale or use of – for example – racially biased algorithms." https://t.co/kM4u3gOEC5
— Ryan Calo (@rcalo) April 19, 2021
يُعرف الاتحاد الأوروبي بموقفه المتشدد ضد شركات التكنولوجيا الكبرى، في الوقت الذي اتبعت فيه لجنة التجارة الفدرالية نهجاً أقل صرامة، على الأقل خلال السنوات الأخيرة. وتتولى اللجنة مراقبة الممارسات التجارية غير العادلة وغير النزيهة. وبالرغم من أن اختصاصها ضيق -فهي لا تتمتع بولاية قضائية على الوكالات الحكومية أو البنوك أو المنظمات غير الربحية- إلا أنها يمكن أن تتدخل عندما تتلاعب الشركات بحقيقة قدرات المنتج الذي تبيعه، وهو ما يعني أن الشركات التي تدعي أن أنظمة التعرف على الوجوه أو الخوارزميات التنبؤية المستخدمة في العمل الشُرطي أو أدوات الرعاية الصحية غير المتحيزة، قد تكون حالياً في دائرة الخطر. ويقول كالو: "أينما يكون لدى اللجنة سلطة، فإنها تكون سلطة هائلة".
اتخاذ إجراءات
لم تكن لجنة التجارة الفدرالية على استعداد دائماً لممارسة هذه السلطة؛ ففي أعقاب الانتقادات التي وجهت لها في الثمانينيات والتسعينيات من القرن الماضي بأنها كانت شديدة العدوانية، تراجعت وانخفض عدد المعارك التي خاضتها، لا سيما ضد شركات التكنولوجيا. ولكن يبدو أن هذا الأمر يتغير.
وفي المنشور، تحذر لجنة التجارة الفدرالية البائعين من أن الادعاءات المتعلقة بالذكاء الاصطناعي يجب أن تكون "صادقة وغير مضللة ومدعومة بالأدلة".
"على سبيل المثال، لنفترض أن أحد مطوري الذكاء الاصطناعي يخبر العملاء بأن منتجه سيتخذ 'قرارات توظيف غير متحيزة بنسبة 100٪'، مع أن الخوارزمية صُممت باستخدام بيانات تفتقر إلى التنوع العرقي أو التنوع بين الجنسين. ربما يفضي ذلك إلى حدوث تضليل وتمييز، وهو ما يستدعي بالتالي اتخاذ لجنة التجارة الفدرالية إجراءات لإنفاذ القانون".
وتحظى إجراءات لجنة التجارة الفدرالية بدعم الحزبين الجمهوري والديمقراطي في مجلس الشيوخ الأميركي، حيث سُئل مفوضو اللجنة، الأسبوع الماضي، عن الخطوات الأخرى التي يمكنهم اتخاذها، وما الذي يحتاجون إليه للقيام بذلك. ويرى كالو أن اللجنة تحظى بالزخم اللازم للعمل.
Over the last decade, the FTC has shown it lacks the will to meaningfully hold large firms like @Google accountable when they repeatedly violate the law. At today's Senate hearing, I'll argue that we must turn the page on the FTC's perceived powerlessness. https://t.co/APX8BSjATZ
— Rohit Chopra (@chopraftc) April 20, 2021
في الوقت نفسه، وعلى الرغم من أن اللوائح التي أقرها الاتحاد الأوروبي تضع حدوداً واضحة، إلا أنها تظل مجرد مبادئ توجيهية. وكما هي الحال بالنسبة لقواعد "النظام الأوروبي العام لحماية البيانات" -المعروف اختصاراً باسم جي دي بي آر (GDPR)، والذي بدأ العمل به عام 2018- سيكون على كل دولة من الدول الأعضاء في الاتحاد الأوروبي أن تقرر منفردة كيفية تنفيذ هذه اللوائح. كما أن بعض العبارات المستخدمة فيها مبهمة وعرضة للتأويل. لنأخذ أحد النصوص الموجهة ضد "الأساليب اللاشعورية التي تتجاوز وعي الشخص، بغية تحريف سلوكه بشكل ملموس" بطريقة يمكن أن تُسبب ضرراً نفسياً. هل ينطبق هذا على قوائم موجز الأخبار أو "نيوز فيد" (News Feed) التي تظهر على وسائل التواصل الاجتماعي وهل ينطبق على الإعلانات الموجهة؟ يقول مايكل فيل عضو هيئة التدريس في كلية لندن الجامعية الذي يدرس القانون والتكنولوجيا: "نتوقع أن تحاول العديد من جماعات الضغط أن تستبعد الإعلانات أو أنظمة الاقتراحات".
سيستغرق الأمر أعواماً من الطعون القانونية في المحاكم لبحث التفاصيل والتعريفات. ويقول فيل: لن يحدث هذا سوى بعد عملية طويلة للغاية من التحقيق والشكوى والغرامة والاستئناف والاستئناف المضاد ثم الإحالة إلى محكمة العدل الأوروبية". ويضيف: "عندئذ ستبدأ الدورة مرة أخرى". على الجانب الآخر، تتمتع لجنة التجارة الفدرالية -على الرغم من اختصاصها الضيق- بالاستقلالية اللازمة للتحرك الآن.
يتمثل أحد القيود الهامة المشتركة بين كل من لجنة التجارة الفدرالية والمفوضية الأوروبية في عدم قدرتهما على كبح استخدام الحكومات لتكنولوجيا الذكاء الاصطناعي الضارة. على سبيل المثال، تتضمن لوائح الاتحاد الأوروبي استثناءات لاستخدام الدول لعمليات المراقبة. أما لجنة التجارة الفدرالية فإنها مخولة فقط بملاحقة الشركات. وبالرغم من أنه يمكنها أن تتدخل عن طريق منع بائعي القطاع الخاص من بيع برمجيات متحيزة لوكالات إنفاذ القانون، إلا أن تنفيذ هذا الأمر سيكون صعباً؛ نظراً للسرية التي تحيط بمثل هذه المبيعات وعدم وجود قواعد تحدد ما يتعين على الوكالات الحكومية إعلانه عند شراء التكنولوجيا.
ومع ذلك، فإن الإعلانات التي صدرت الأسبوع الماضي تعكس تحولاً عالمياً هائلاً نحو وضع لوائح تنظيمية جادة للذكاء الاصطناعي، وهي التكنولوجيا التي تم تطويرها ونشرها دون رقابة تذكر حتى الآن. وقد دأبت هيئات مراقبة الأخلاقيات لسنوات على المطالبة بفرض قيود على ممارسات الذكاء الاصطناعي غير العادلة والضارة.
Artificial Intelligence is a fantastic opportunity for Europe.
And citizens deserve technologies they can trust.
Today we present new rules for trustworthy AI. They set high standards based on the different levels of risk. pic.twitter.com/EuzaIUBW9i
— Ursula von der Leyen (@vonderleyen) April 21, 2021
ويرى الاتحاد الأوروبي أن لوائحه تُخضع الذكاء الاصطناعي لقواعد حماية الحريات الإنسانية المعمول بها حالياً. وقالت رئيسة المفوضية الأوروبية أورسولا فون دير لاين، في كلمة ألقتها قبل الإعلان عن اللوائح الجديدة: "يجب أن يخدم الذكاء الاصطناعي الناس، وبالتالي يجب أن يتقيد الذكاء الاصطناعي دائماً بحقوق الناس".
كما ستساعد اللوائح أيضاً الذكاء الاصطناعي على تحسين صورته. وكما قالت فون دير لاين أيضاً: "نريد تشجيع مواطنينا على الشعور بالثقة في استخدامه".