لقد أصبح ميدان الذكاء الاصطناعي أقرب ما يكون إلى الغرب الأميركي الجامح قديماً. حيث تُستخدم تطبيقات الذكاء الاصطناعي، وبشكل متزايد، لاتخاذ قرارات مهمة حول حياة البشر بأدنى قدر، أو حتى دون أي قدر من الإشراف والمحاسبة. ويمكن أن يؤدي هذا إلى عواقب وخيمة، مثل الاعتقالات الخاطئة، أو العلامات الخاطئة للطلاب، وحتى الخراب المالي. وغالباً ما تتحمل النساء والشرائح المهمشة والأشخاص من ذوي البشرة غير البيضاء عبء ميل الذكاء الاصطناعي إلى ارتكاب الأخطاء وتجاوز حدوده.
ويعتقد الاتحاد الأوروبي أنه توصل إلى حل لهذه المشكلة، وذلك بطرح أهم قانون في مجال الذكاء الاصطناعي، وهو الأساس لجميع قوانين الذكاء الاصطناعي، ويحمل اسم "أيه آي آكت" (AI Act). وهو أول قانون يهدف إلى التخفيف من هذه الأضرار عن طريق تنظيم القطاع بأسره. وإذا نجح الاتحاد الأوروبي، فقد يعني هذا وضع معيار عالمي جديد للإشراف على الذكاء الاصطناعي في جميع أنحاء العالم.
اقرأ أيضاً: لماذا قد يرتكب الذكاء الاصطناعي الأخطاء.. متعمداً؟
ولكن عالم تشريع الاتحاد الأوروبي قد يكون معقداً، ويفتقر إلى الشفافية. وإليك هذا الدليل السريع حول كل ما يجب معرفته حول قانون الذكاء الاصطناعي للاتحاد الأوروبي. حالياً، يعمل أعضاء من البرلمان الأوروبي وبلدان الاتحاد الأوروبي على تعديل مشروع القانون.
ما الذي يجعل هذا القانون مميزاً؟
يتميز قانون الذكاء الاصطناعي بدرجة عالية من الطموح. حيث يفرض عمليات تدقيق إضافية على استخدامات الذكاء الاصطناعي "عالية الخطورة" الأكثر قدرة على إلحاق الضرر بالناس. وتتضمن هذه الفئة الأنظمة المستخدمة في تصحيح الأوراق الامتحانية، والتوظيف، ومساعدة القضاة على اتخاذ قرارات تتعلق بالقانون والعدالة. كما تتضمن المسودة الأولى من القانون حظر استخدامات الذكاء الاصطناعي التي تُعتبر "غير مقبولة"، مثل وضع علامات للأشخاص بناء على "أهليتهم بالثقة" من الناحية الظاهرية.
كما يضع القانون قيوداً على استخدام وكالات إنفاذ القانون لأنظمة التعرف على الوجوه في الأماكن العامة. وهناك مجموعة شديدة الانتقاد من الأطراف عالية النفوذ، بما فيها بعض الأعضاء من البرلمان الأوروبي وبعض البلدان مثل ألمانيا، والتي تريد فرض حظر شامل أو إيقاف مؤقت على استخدام هذه الأنظمة في الأماكن العامة من قبل مؤسسات إنفاذ القانون والشركات الخاصة، وذلك لأن هذه التكنولوجيا، كما تقول هذه الجهات، تمكن من تطبيق المراقبة الشاملة.
وإذا تمكن الاتحاد الأوروبي من فرض هذه البنود، فسوف تمثل إحدى أقوى القيود على هذه التكنولوجيا. وقد قامت بعض المدن والولايات الأميركية، مثل سان فرانسيسكو وفرجينيا، بفرض قيود على أنظمة التعرف على الوجوه، ولكن حظر الاتحاد الأوروبي سيتم تطبيقه على 27 دولة بتعداد يفوق 447 مليون نسمة.
اقرأ أيضاً: الذكاء الاصطناعي يرسم مستقبل عملية التوظيف في الشركات
كيف سيؤثر هذا على المواطنين؟
من الناحية النظرية، سيعني هذا حماية البشر من أسوأ الآثار الجانبية للذكاء الاصطناعي، وذلك بضمان خضوع تطبيقات التعرف على الوجوه إلى درجة من التدقيق والمسؤولية على الأقل.
ويستطيع الناس الاطمئنان بشأن حمايتهم من أكثر أشكال الذكاء الاصطناعي أذى، كما يقول براندو بينيفي، وهو عضو إيطالي في البرلمان الأوروبي، وعضو رئيسي في الفريق الذي يعمل على تعديل مشروع القانون.
ويفرض مشروع القانون تنبيه الناس عند رؤية مواد عميقة التزييف، أو التعرض إلى أنظمة التعرف باستخدام القياسات الحيوية، أو تطبيقات الذكاء الاصطناعي التي تزعم القدرة على قراءة العواطف. كما يناقش المشرعون أيضاً وجوب وضع القانون لآلية تتيح للناس تقديم الشكوى والحصول على التعويضات عند التعرض للأذى بسبب أنظمة الذكاء الاصطناعي.
ويسعى البرلمان الأوروبي، وهو أحد مؤسسات الاتحاد الأوروبي التي تعمل على تعديل مشروع القانون، إلى فرض حظر على أنظمة التنبؤ التي تستخدمها الشرطة. وتعتمد هذه الأنظمة على الذكاء الاصطناعي لتحليل مجموعات ضخمة من البيانات من أجل توجيه الشرطة استباقياً إلى المناطق المعرضة أكثر من غيرها للجرائم، أو لمحاولة التنبؤ بالميول الإجرامية لدى شخص ما. وقد أثارت هذه الأنظمة الكثير من الجدل، ويقول المنتقدون إنها تتسم بالعنصرية وتفتقد إلى الشفافية في أغلب الأحيان.
اقرأ أيضاً: بماذا تشبه صناعة الذكاء الاصطناعي الاستعمار القديم؟
ولكن، ماذا عن المناطق خارج نطاق الاتحاد الأوروبي؟
يمثل النظام الأوروبي العام لحماية البيانات (GDPR) أكثر الصادرات التكنولوجية شهرة لهذه المنطقة، فقد تم استنساخه في كل مكان، بدءاً من كاليفورنيا وصولاً إلى الهند.
وتمثل المقاربة التي أخذها الاتحاد الأوروبي بشأن الذكاء الاصطناعي، والتي تركز على أكثر أنظمة الذكاء الاصطناعي خطراً وتأثيراً، المقاربة التي تجمع عليها معظم البلدان المتطورة. وإذا تمكن الأوروبيون من صياغة طريقة متماسكة لتنظيم هذه التكنولوجيا، فمن الممكن أن تتحول إلى نموذج تعتمد عليه البلدان الأخرى لنفس الهدف.
يقول مارك روتينبيرغ، والذي يرأس مركز الذكاء الاصطناعي والسياسات الرقمية، وهو منظمة لاربحية تتابع سياسات الذكاء الاصطناعي: "عندما تمتثل الشركات الأميركية لقانون الذكاء الاصطناعي الأوروبي، سينتهي بها المطاف إلى رفع معاييرها بالنسبة للمستهلكين الأميركيين أيضاً من حيث الشفافية والمسؤولية".
كما أن إدارة بايدن تقوم بمراقبة مشروع القانون هذا عن كثب. وتمثل الولايات المتحدة موطناً لبعض من أهم مختبرات الذكاء الاصطناعي في العالم، مثل المختبرات في "جوجل أيه آي" (Google AI) و"ميتا" (Meta) و"أوبن أيه آي" (Open AI)، والتي تحتل المراتب الأولى على مستوى العالم في عدة مجالات مختلفة في أبحاث الذكاء الاصطناعي، ما يعني أن البيت الأبيض يرغب بمعرفة احتمالات تطبيق أي قوانين على هذه الشركات. وفي الوقت الحالي، لاقت جهود الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي ترحيب عدة شخصيات حكومية مؤثرة في الولايات المتحدة، مثل مستشار الأمن القومي جاك سوليفان، ووزيرة التجارة جينا رايموندو، ولين باركر التي تترأس جهود البيت الأبيض في مجال الذكاء الاصطناعي.
اقرأ أيضاً: أهم تطبيقات الذكاء الاصطناعي في مختلف القطاعات
يقول روتينبيرغ: "هذا تضارب حاد مع نظرة الولايات المتحدة إلى تطوير قانون "GDPR"، والذي وصفه بعض الأميركيين في حينه بأنه سيقضي على الإنترنت، ويكسف الشمس، وينهي كافة أشكال الحياة على سطح الكوكب".
وعلى الرغم من بعض التحفظات التي لا مفر منها، فإن الترحيب بهذه القانون أمر جيد بالنسبة للولايات المتحدة. فالولايات المتحدة تشعر بقلق شديد حول تزايد تأثير الصين في المجال التكنولوجي. وبالنسبة للأميركيين، فإن الموقف الرسمي يتلخص بأن الحفاظ على الهيمنة الغربية على التكنولوجيا مسألة تتعلق بانتصار "القيم الديمقراطية". ولهذا، ترغب الولايات المتحدة بالحفاظ على علاقة وثيقة مع الاتحاد الأوروبي، وهو حليف يتخذ موقفاً مماثلاً.
ما هي أكبر التحديات؟
يتضمن مشروع القانون بعض المتطلبات والشروط التي يستحيل الالتزام بها حالياً من الناحية الفنية. فقد ورد في المسودة الأولى من القانون أن مجموعات البيانات يجب أن تكون خالية من الأخطاء، وأن يُتاح للبشر إمكانية تحقيق "فهم كامل" لكيفية عمل أنظمة الذكاء الاصطناعي. ولكن مجموعات البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي هائلة الحجم، ويتطلب التحقق من خلوها من الأخطاء بالكامل من قبل البشر آلاف الساعات من العمل، على فرض إمكانية تطبيق عملية التدقيق هذه في المقام الأول. علاوة على ذلك، فإن الشبكات العصبونية الحالية بلغت درجة عالية من التعقيد إلى درجة أن مصمميها أنفسهم لا يفهمون بالكامل كيف توصلت الشبكة إلى هذه النتيجة أو تلك.
وتشعر الشركات التكنولوجية بقلق عميق من المتطلبات التي تمنح المدققين الخارجيين أو المشرعين إمكانية الوصول إلى رموزها البرمجية المصدرية وخوارزمياتها لفرض القانون.
تقول ميريام فوغل، وهي الرئيسة والمديرة التنفيذية لمؤسسة "إيكوال أيه آي" (EqualAI) اللاربحية التي تعمل على تخفيض التحيز غير المقصود في أنظمة الذكاء الاصطناعي: "لقد أثارت المسودة الحالية القلق لدى الكثيرين، لأنهم يشعرون باستحالة الامتثال لهذه القوانين بشكلها الحالي". أيضاً، تترأس فوغل اللجنة الوطنية الاستشارية للذكاء الاصطناعي، والتي تقدم الاستشارات للبيت الأبيض حول سياسات الذكاء الاصطناعي.
هناك أيضاً مواجهة حادة مقبلة حول ما إذا كان قانون الذكاء الاصطناعي يجب أن يحظر استخدام أنظمة التعرف على الوجوه بالكامل. وهي مسألة شائكة، لأن بلدان الاتحاد الأوروبي لا تشعر بالارتياح لتدخل بروكسل في أساليبها في التعامل مع مسائل الأمن القومي أو فرض القانون. وترغب عدة بلدان، مثل فرنسا، بوضع استثناءات لاستخدام التعرف على الوجوه لحماية الأمن القومي. ومن ناحية أخرى، فإن الحكومة الجديدة في ألمانيا، وهي دولة أوروبية كبيرة ومن الأصوات المؤثرة في اتخاذ القرار في الاتحاد الأوروبي، تقول إنها تدعم الحظر الشامل لاستخدام أنظمة التعرف على الوجوه في الأماكن العامة.
اقرأ أيضاً: الولايات المتحدة تعاني من أزمة بسبب استخدام تكنولوجيا التعرف على الوجوه في العمل الشرطي
ومن المتوقع أن ينشب خلاف كبير آخر أيضاً حول أنواع الذكاء الاصطناعي التي يجب أن تصنف على أنها "عالية الخطورة". وقد وضع قانون الذكاء الاصطناعي قائمة تتراوح بين اختبارات كشف الكذب وصولاً إلى الأنظمة التي تقوم بتوزيع دفعات المعونة الاجتماعية. ويمر المشهد السياسي بحالة انقسام بين طرفين، حيث يخشى الطرف الأول أن النطاق الواسع الذي يشمله القانون سيؤدي إلى تباطؤ الابتكار، على حين يقول الطرف الآخر إن الشكل الحالي لمشروع القانون غير كافٍ لحماية الناس من التعرض لأذيات خطرة.
هل سيؤدي هذا إلى إعاقة الابتكار؟
ثمة انتقاد شائع تُجمع عليه مجموعات الضغط في وادي السيليكون بأن هذا القانون سيؤدي إلى تعقيد الإجراءات بالنسبة لشركات الذكاء الاصطناعي. ولكن أوروبا لا تشاطرهم هذا الرأي. حيث يرد الاتحاد الأوروبي على هذه المزاعم بأن قانون الذكاء الاصطناعي سينطبق فقط على أخطر الاستخدامات للذكاء الاصطناعي، والتي لا تتجاوز نسبة 15% من إجمالي تطبيقات الذكاء الاصطناعي وفقاً لتقديرات المفوضية الأوروبية، وهي الذراع التنفيذية للاتحاد الأوروبي.
ويقول بينيفي إن الشركات التكنولوجية "يجب أن تطمئن إلى أننا نرغب بأن نقدم لها مجموعة مستقرة وواضحة وصحيحة قانونياً من القواعد، بحيث تستطيع تطوير معظم تطبيقات الذكاء الاصطناعي مع الامتثال لمجموعة محدودة للغاية من القوانين".
أما المؤسسات التي لا تمتثل فقد تواجه غرامات تصل إلى 30 مليون يورو (31 مليون دولار)، أو بالنسبة للشركات، نسبة تصل إلى 6% من إجمالي دخلها العالمي السنوي. وتبين التجارب السابقة أن أوروبا لا تتردد في فرض الغرامات على الشركات التكنولوجية. فقد دفعت "أمازون" (Amazon) غرامة بقيمة 746 مليون يورو (775 مليون دولار) في 2021 بسبب انتهاكها قانون "GDPR"، كما دفعت "جوجل" (Google) غرامة بقيمة 4.3 مليار يورو (4.5 مليار دولار) بسبب انتهاكها لقوانين مكافحة الاحتكار في المنطقة.
اقرأ أيضاً: كيف تعمل الأنظمة التكنولوجية الكبيرة على إبطاء الابتكار؟
متى سيصبح القانون ساري المفعول؟
قد نحتاج إلى سنة أخرى على الأقل قبل أن يصبح النص النهائي جاهزاً، وسنتين تقريباً قبل أن تصبح الشركات ملزمة بالامتثال له. وهناك احتمال بأن يستغرق تحديد التفاصيل لمشروع قانون شامل إلى هذه الدرجة، وبوجود الكثير من العوامل المتضاربة، فترة أطول من ذلك بكثير. فقد استغرقت مفاوضات "GDPR" أكثر من أربع سنوات، ولم يصبح ساري المفعول قبل ست سنوات إضافية. وفي عالم القوانين الأوروبية، يمكن لأي شيء أن يحدث.