نلاحظ أن هناك توجهاً عالمياً متصاعداً من الحكومات والشركات والمجتمع في الاهتمام بالذكاء الاصطناعي المسؤول (Responsible AI) وأخلاقيات الذكاء الاصطناعي (AI Ethics)، لما في ذلك من أهمية في معالجة التحديات والمخاطر الأخلاقية للذكاء الاصطناعي وتطوير ذكاء اصطناعي مسؤول وجدير بالثقة.
وهذا يعود إلى أن تنفيذ ممارسات قوية وأخلاقية للذكاء الاصطناعي يتطلب معرفة ووجهات نظر متنوعة الاختصاصات، ورحلة تتطلب الاستثمار في المواهب والأدوات، ودعم القيادة، وهيكل حوكمة مناسب للذكاء الاصطناعي، وثقافة المسؤولية، وهي عملية تستغرق عادةً سنوات عديدة. لذا في هذا المقال سأحاول تسليط الضوء على القضايا المهمة في هذا المجال، ومعرفة كيفية تطوير الذكاء الاصطناعي المسؤول الذي ينفع المجتمع.
إحصائيات عن مدى الثقة في الذكاء الاصطناعي والبيانات
حسب إحصاءات مركز الأمن والتقنيات الناشئة والشراكات في الذكاء الاصطناعي التابع لجامعة جورج تاون الأميركية الصادرة سنة 2020، فإن هناك ما يقارب 1200 حالة فشل لتطبيقات الذكاء الاصطناعي معلنة خلال ثلاث سنوات فقط.
ووفقاً لدراسة استقصائية قامت بها شركة حلول البيانات السحابية عالية الأداء إنترنت سيستمز (InterSystems)، شملت 100 مسؤول تنفيذي للرعاية الصحية في الولايات المتحدة الأميركية يديرون مستشفيات بحجم 250 سريراً أو أكثر، واستطلاع شركة تالند (Talend) لمقياس صحة البيانات لعام 2022 (Data Health Barometer 2022) شمل 900 متخصص في مجال البيانات من الشركات المتوسطة والكبيرة في جميع أنحاء العالم، والتي تعمل في قطاعات تجارة التجزئة والتمويل والتصنيع والتعليم في كلٍّ من المملكة المتحدة وفرنسا والولايات المتحدة وسنغافورة، بالإضافة إلى استطلاع شركة تحليل البيانات المالية والمصرفية فيكو (FICO)، والذي شمل 100 من قادة الذكاء الاصطناعي والبيانات من الولايات المتحدة (80%) وكندا (20%) في الربع الرابع من عام 2022، والذين يديرون شركات الخدمات المصرفية والمالية التي يبلغ دخلها السنوي 500 مليون دولار على الأقل، وجدت أن:
- 1200 حالة تم الإبلاغ عنها علناً لفشل الذكاء الاصطناعي خلال ثلاث سنوات فقط.
- 10 % لديها جهود راسخة لتخفيف المخاطر، بينما 1% فقط منها كانت فعّالة.
- 60 % من رجال الأعمال لا يثقون ببيانات شركاتهم.
- 70 % اعترفوا بوجود فشل واحد على الأقل في أنظمة الذكاء الاصطناعي حتى الآن.
- 71 % قالوا إن أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي المسؤول ليست بعد جزءاً أساسياً من استراتيجيتهم التنظيمية.
علاوة على ذلك، كشف تقرير حالة الذكاء الاصطناعي لعام 2022 (The state of AI in 2022)، الذي تصدره شركة الأبحاث ماكنزي (McKinsey)، أنه على الرغم من الدعوات المتزايدة للتعامل مع المخاوف الأخلاقية المرتبطة باستخدام الذكاء الاصطناعي، فإن الشركات تُظهر اهتماماً محدوداً بالإنصاف والعدالة في الذكاء الاصطناعي، وأن معظم الشركات لا تخفف من حدتها في الواقع.
اقرأ أيضاً: كيف يساعد الذكاء الاصطناعي في نمو التجارة الإلكترونية؟
ولكن عندما يتعلق الأمر بالعمل وفقاً للتقرير، فقد تم ذكر أن ثلثي الشركات فقط مستعدة لجعل الذكاء الاصطناعي أكثر قابلية للتفسير، وتحسين إدارته، وتقليل تحيزه، ومراقبة أداء نموذجه، وضمان امتثاله للوائح الخصوصية، وتطوير ضوابطه والإبلاغ عنها، وتحسينه ضد التهديدات السيبرانية، وهو ما يمثّل تراجعاً خطوة إلى الوراء مقارنة بتقرير عام 2020.
حيث وجد التقرير أن الشيء الوحيد الذي ظل ثابتاً بشكل مقلق هو مستوى انخراط الشركات في التخفيف من المخاطر لتعزيز الثقة الرقمية. وبينما زاد استخدام الذكاء الاصطناعي، لم تكن هناك زيادات كبيرة في التخفيف المُبلغ عنه لأي مخاطر متعلقة بالذكاء الاصطناعي منذ عام 2019، وهو العام الذي بدأت فيه شركة ماكنزي بإصدار تقريرها السنوي عن حالة الذكاء الاصطناعي.
الحاجة إلى ذكاء اصطناعي مسؤول ومرتكز على الإنسان
بحسب الفيلسوف وعالم الحاسوب أوبول إحسان (Upol Ehsan)، فإن الحاجة إلى تطوير ذكاء اصطناعي مسؤول ومرتكز على الإنسان تنبع من الحقائق التالية:
- لا توجد أنظمة الذكاء الاصطناعي في فراغ، فهي تُستخدم وتعمل في نسيج غني من العلاقات الاجتماعية والتنظيمية، فمشكلات الذكاء الاصطناعي الحالية ليست تقنية فقط ولكنها اجتماعية أيضاً.
- إذا فشلنا في فهم من هم البشر الذين يتفاعلون مع الأنظمة، سيكون من الصعب تصميم أنظمة ذات مغزى بشكل فعّال.
- بينما ننتقل من الذكاء الاصطناعي (AI) إلى الذكاء الاصطناعي القابل للتفسير (XAI)، من الضروري أن نعيد تركيزنا على الإنسان من خلال استخدام الذكاء الاصطناعي القابل للتفسير المرتكز على الإنسان (HCXAI) لتحسين فهمنا للأشخاص الذين يستخدمون الذكاء الاصطناعي.
اقرأ أيضاً: لماذا يعاني العاملون في قطاع الذكاء الاصطناعي المسؤول من الإرهاق؟
عالم تسيّره الخوارزميات
يتفق معظم خبراء الذكاء الاصطناعي على أن الخوارزميات موجودة لتبقى، قد لا نكون على دراية بها، ولكن سيكون لها تأثير أكبر في حياتنا، لأننا نجمع المزيد من البيانات ونحقق تقدماً في تطورها، لذلك ينبغي ألا نلوم الذكاء الاصطناعي على كونه متحيزاً، فالبشر هم المسؤولون.
حيث يذكر عالم الرياضيات والفيلسوف نوربرت وينر (Norbert Weiner) الحاصل على درجة الدكتوراة من جامعة هارفارد عن عمر يناهز 18 عاماً: "إذا استخدمنا وسيلة ميكانيكية لتحقيق أغراضنا، ولا يمكننا التدخل بفعالية في تشغيلها، فمن الأفضل أن نكون متأكدين تماماً من أن الغرض الذي نضعه في الآلة هو الغرض الذي نرغب فيه حقاً".
علاوة على ذلك، غالباً ما يُنظر إلى استخدام الخوارزميات على أنه وسيلة لتحسين أو زيادة الكفاءة أو خفض تكاليف الخدمات العامة، لكن تطبيقاتها تصل إلى مختلف نواحي حياتنا، مثل:
- المساعدة في المهام البسيطة: بما في ذلك البحث في الإنترنت أو حجز رحلة أو ترجمة وثيقة أو اقتراح ماذا تقرأ أو تشاهد.
- اتخاذ القرارات: بما في ذلك منح القروض أو الكفالة أو إصدار الأحكام أو اختيار الكلية أو تنقيح درجات الاختبارات أو فحص المرشحين لعمليات التوظيف أو التوصية بالترقية أو إعطاء الأولوية للرعاية الاجتماعية أو استحقاقات الرفاهية.
- قيادة السيارات والتنبؤ بالجرائم وكسب المال وتشخيص الصور الطبية واقتراح خطة العلاج.
- المهام الإبداعية ونشر الإبداع والخيال في مجالات مثل الكتابة والفنون والموسيقى والفيديو.
إخفاقات الذكاء الاصطناعي
كانت هناك العديد من إخفاقات الذكاء الاصطناعي في الماضي، حيث ترتبط معظم هذه الإخفاقات بإهمال معالجة تطوير الذكاء الاصطناعي ونشره بطريقة مسؤولة وعدم امتلاك إدارة صحيحة لها. ومن أبرز الإخفاقات المرتبطة بالذكاء الاصطناعي:
- قامت شركة مايكروسوفت بإلغاء الوصول إلى أداة التعرف على المشاعر (Emotion Recognition) المدعومة بالذكاء الاصطناعي بعد انتقادات بأنها متحيزة ولا تستند إلى مزايا علمية.
- في عام 2022 تم تغريم شركة ميتا بمبلغ 115 ألف دولار، بعد أن اكتُشف أن الخوارزميات التي تستخدمها الشركة لتحديد مستخدمي فيسبوك الذين يشاهدون إعلانات الإسكان متحيزة ضد المستخدمين على أساس العرق واللون والدين والجنس والإعاقة والوضع العائلي والقومية.
- في عام 2013 اكتُشف أن الخوارزميات المدعومة بالذكاء الاصطناعي التي استخدمتها هيئة الضرائب الهولندية في اتخاذ قرار الموافقة على صرف المعونات الاجتماعية للعائلات التي يولد لها طفل جديد، كانت متحيزة ضد الأقليات العرقية التي اتهمت زوراً بالاحتيال، وطُلب منهم سداد المزايا التي حصلوا عليها بشكل قانوني بالكامل، وقد أدّت هذه القضية إلى استقالة مجلس الوزراء بأكمله عام 2022 بعد أن وجدت لجنة تحقيق برلمانية أن هناك تمييزاً منهجياً وظلماً جسيماً وقع على الضحايا.
- أدّت خوارزمية تقييم الممتلكات التي استخدمتها شركة زيلو (Zillow)، وهي سوق عقارات أميركي عبر الإنترنت، إلى المبالغة في تقدير قيمة المنازل التي اشترتها الشركة في الربع الثالث والربع الرابع من عام 2021 بأكثر من 500 مليون دولار. ونتيجة لذلك، أعلنت الشركة عن خسائر بقيمة 304 ملايين دولار في الربع الثالث، وتتوقع خسائر إضافية تقارب 200 مليون دولار، وتخطط لخفض قوتها العاملة بنسبة 25%.
كل حالات الفشل المذكورة أعلاه تخبرنا أنه إذا لم تكن البيانات ثابتة وذات جودة عالية وشاملة ولا يوجد فيها تحيز، فإن العلاقات التي يتعلمها نموذج الذكاء الاصطناعي ستتغير بمرور الوقت وتصبح غير موثوقة، وهو ما يسميه علماء البيانات انحراف البيانات (Data Drift) الذي يصف كيف يمكن للعملية أو السلوك أن يتغير أو ينحرف مع مرور الوقت.
اقرأ أيضاً: إريك زينغ: أهمية الذكاء الاصطناعي المسؤول في مستقبل مجتمعاتنا
فرص ومخاطر الذكاء الاصطناعي التوليدي
أدّت المنافسة بين شركات وادي السيليكون في تطوير أدوات الذكاء الاصطناعي التوليدي الخاصة بها إلى إثارة الكثير من الذعر حول مدى التزام هذه الشركات بأخلاقيات الذكاء الاصطناعي، حيث تبرز القضايا المتعلقة بين شركة مايكروسوفت وأوبن أيه آي من جهة ومطوري أداة الذكاء الاصطناعي التوليدي كوبيلوت (Copilot) من جهة أخرى، حالة السباق المحموم وغير المدروس لمطوري الذكاء الاصطناعي الذين يندفعون لطرح شيء رائع دون التفكير في البشر الذين سيتأثرون به.
ولكن نظراً لأن هذه البرامج مفتوحة المصدر يتم إنشاؤها عن طريق جمع الصور من الإنترنت، غالباً دون إذن وإسناد مناسب من منشئها، فإنها تُثير أسئلة صعبة حول الأخلاق وحقوق النشر والأمن.
اقرأ أيضاً: مجموعات أخلاقيات الذكاء الاصطناعي تكرر أحد الأخطاء المجتمعية التقليدية
وأبرز مثال حديث لذلك هو ما قامت به شركة ألفابت التي خسرت ما يقارب 100 مليار دولار في يوم واحد بعد نشر بوت الدردشة الخاصة بها والمسمى بارد (Bard) إجابة خاطئة أثناء الكشف عنه. ولكن على الرغم من قدرات نماذج الذكاء الاصطناعي التوليدي الرائعة مثل "بارد" و"تشات جي بي تي"، فإن الميزة الأكثر وضوحاً لها قد تكون مرونتها المطلقة، حتى إن العديد من الخبراء فوجئوا بقدراتها في الإقناع.
ولكن خطورتها الحقيقية هي أنه يمكن استخدام نموذج تشات جي بي تي والنماذج الأخرى لإنشاء مقالات إخبارية مزيفة، أو انتحال صفة الأفراد أو نشر أشكال أخرى من المعلومات المضللة، ما قد ينتج عنه "تسميم" لشبكة الإنترنت، ومع مرور الوقت قد نجد أن أكثر المعلومات الموجودة على الشبكة معلومات مغلوطة وغير صحيحة، بالإضافة إلى التحيز والمعلومات الخاطئة، والقضايا الأخلاقية والقانونية، والملكية الفكرية وانتهاك حقوق النشر والخصوصية، علاوة على قضايا الشفافية والتفسير.
الحاجة إلى أخلاقيات للذكاء الاصطناعي
وفقاً لتعريف معهد آلان تورينغ لأخلاقيات الذكاء الاصطناعي، فهي "مجموعة من القيم والمبادئ والتقنيات التي تستخدم معايير مقبولة على نطاق واسع للصواب والخطأ لتوجيه السلوك الأخلاقي في تطوير واستخدام تقنيات الذكاء الاصطناعي"، بينما يمكن تعريف الذكاء الاصطناعي المسؤول بأنه: "هو أساس إطار حوكمة شامل للمؤسسات، مع التركيز على المخاطر والضوابط على طول رحلة المؤسسة في تطوير نماذج الذكاء الاصطناعي، من الأعلى إلى الأسفل".
اقرأ أيضاً: كيف يمكن حل مشكلات التعميم والتحيز في خوارزميات الذكاء الاصطناعي؟
حيث توجد مبادئ وإرشادات وأطر عمل لمعالجة المخاوف وتقييم الاستراتيجيات المرتبطة بتطوير ونشر وإدارة الذكاء الاصطناعي داخل الشركات المختلفة، بما في ذلك:
- الإنصاف: من خلال معالجة التحيز في البيانات والنماذج.
- القابلية للتفسير: من خلال شرح كيف يتخذ نموذج الذكاء الاصطناعي القرارات.
- الخصوصية: من خلال حماية الخصوصية الفردية وإخفاء هوية البيانات الشخصية.
- المتانة والأمان: من خلال التأكد من الأداء الأمثل قبل نشره وتطبيق أعلى معايير الأمان الرقمي.
- الحوكمة: من خلال نشر السياسات والضوابط واللوائح لضمان المساءلة والتطوير والاستخدام المسؤول.
كيف نطوّر الذكاء الاصطناعي المسؤول؟
يفرض الطلب على الذكاء الاصطناعي الموثوق به الضغط على المؤسسات والشركات لوضع مبادئ أخلاقيات الذكاء الاصطناعي موضع التنفيذ، حيث يوجد عدد قليل جداً من الشركات التي قامت بتفعيل أخلاقيات الذكاء الاصطناعي الخاصة بها على نطاق واسع. ولكن بسبب الافتقار إلى الإلحاح التنظيمي، تأخر وضع المعايير، وكانت الأدوات المتاحة غير ناضجة، ومن ثم فإن تطبيق الذكاء الاصطناعي المسؤول في الشركات ممكن ولكنه يتطلب تغييراً تنظيمياً عميقاً.
ومع ذلك يمكن تطوير الذكاء الاصطناعي المسؤول عبر الخطوات التالية:
- استخدام أدوات الذكاء الاصطناعي المسؤول من مايكروسوفت (MS Responsible AI) التي توفرها منصة غيت هوب (GitHub).
- استخدام خدمات البائعين الذين يقدمون حلولاً لتقييم مخاطر الذكاء الاصطناعي، مثل كريدو أيه آي (Credo AI).
- استشارة فرق أخلاقيات الذكاء الاصطناعي، وإشراك أصحاب المصلحة المتعددين، وتطبيق الأدوار الجديدة لإدارة الامتثال.
- تطبيق ممارسات إم إل أوبس (MLOps) التي تركّز على إدارة النموذج من البداية إلى النهاية، بدءاً من جمع البيانات وصولاً إلى التشغيل والرقابة.
- وجود فريق تقني جيد يضم علماء البيانات ومهندسي التعلم الآلي.
- معرفة التهديدات المتعلقة بالذكاء الاصطناعي والتعلم الآلي، مثل مكتبة بلوت 4 أيه آي (PLOT4ai) التي تحتوي حالياً على نحو 86 تهديداً.
- استخدام أدوات تقييم المخاطر.
- اتباع إرشادات حوكمة الذكاء الاصطناعي.
- اتباع مبادئ وسياسات وضوابط الذكاء الاصطناعي.
- وجود خطوط واضحة للمساءلة.
- اعتماد المعايير.
- التدقيق المستقل وتقييم المخاطر.
- استخدام مقاييس الأداء الشامل.
- ضرورة وجود ثقافة المؤسسة المسؤولة.
- ضرورة وجود دور القيادة الفعّال.
- تقديم الحوافز والمكافآت المرافقة للإنجازات التي يتم تحقيقها.
وترجع أهمية الخطوات المذكورة أعلاه إلى أن الذكاء الاصطناعي المسؤول سيعاني في مرحلة من مراحل تطويره مما يسمى مشكلة الإرهاق، لأن هذه العملية ستكون شاقة مع العديد من المجالات الفرعية التي تتطلب الانتباه، مثل الإنصاف والشفافية والمساءلة والأمان والموثوقية والخصوصية والأمن والحوكمة وما إلى ذلك.
ومن ثم ليتم تنفيذها في جميع مراحل دورة حياة الذكاء الاصطناعي، بما في ذلك التصميم والتطوير والنشر، يجب اتباع نهج تحديد الأولويات الذي يبدأ بمناطق منخفضة الجهد وعالية التأثير في الذكاء الاصطناعي المسؤول، ما سيقلل من المخاطر مع زيادة الاستثمار للوصول إلى نجاح مستدام.
بالإضافة إلى ذلك، لا يوجد مقاس واحد يناسب الجميع بالنسبة إلى تطوير نماذج الذكاء الاصطناعي المسؤول، حيث تحتاج كل شركة إلى اتباع إرشادات معهد الذكاء الاصطناعي المسؤول (RAI) بحسب احتياجاتها، ومحاذاة النضج والفروق الدقيقة التي تميّز شركات الذكاء الاصطناعي الناشئة محدودة الموارد (البشرية والتقنية) في نهج ترتيب الأولويات، من خلال تقليل المناطق ذات التأثير المنخفض الجهد والاستفادة من الامتثال لتطبيق الممارسات الأنسب لقدرة الشركة.
اقرأ أيضاً: هل التحيز الخوارزمي محض صدفة حقاً كما تقول شركات وادي السيليكون؟
وهذا يعني أنه ينبغي على الشركات أن تكون صريحة بشأن نوع البيانات الشخصية أو غير الشخصية التي تستخدمها أنظمة الذكاء الاصطناعي، وكذلك حول الغرض من استخدام البيانات، وهو ما يعني أن نموذج الذكاء الاصطناعي يجب أن يكون في خدمة المجتمع وأن يحقق فوائد ملموسة للناس.
والأدوات التي تساعد في الإجابة عن بعض الأسئلة، وتساعد في التخفيف من أي مشكلات يتم تحديدها، هي: أدوات العدالة من آي بي إم 360 (IBM 360)، وأدوات الإنصاف الخوارزمي (Algorithmic Fairness) من أكسنتشر (Accenture)، وأدوات معهد الذكاء الاصطناعي المسؤول من مايكروسوفت (MS RAI).
حاجة مطوري الذكاء الاصطناعي للحصول على ترخيص المجتمع
الذكاء الاصطناعي المسؤول ضروري ولكن ليس بما فيه الكفاية، حيث نحتاج إلى ترخيص اجتماعي يأتي من المجتمع الذي يقبل حل الذكاء الاصطناعي، واعتماد نهج يركّز على الإنسان لتعزيز الثقة بين جميع أصحاب المصلحة والمجتمعات المدنية والحكومة. علاوة على ذلك، يجب على الشركات الحصول على ترخيص اجتماعي لتقديم طلبات الذكاء الاصطناعي، والانخراط مع أصحاب المصلحة الذين يؤثرون على منح الترخيص الاجتماعي والذي يعتبر شرطاً أساسياً.
المعايير العالمية
على مدار العامين الماضيين بدأنا نرى معايير الذكاء الاصطناعي التي تم تطويرها، حيث إن تبني أخلاقيات ومعايير الذكاء الاصطناعي المسؤولة سيساعد إلى حد أكبر في تطوير حلول الذكاء الاصطناعي بطريقة مسؤولة وتقليل مخاطر الذكاء الاصطناعي. ومن أهم هذه المعايير:
- ISO/IEC 38507: يوفّر إرشادات لأعضاء الهيئة الحاكمة للشركة لتمكين استخدام الذكاء الاصطناعي من أجل ضمان الاستخدام الفعّال والمقبول داخل الشركة والتحكم به.
- ISO/IEC 3053: يغطي الحصول على البيانات وإعداد البيانات والنمذجة والتحقق من صحة ونشر النموذج وتشغيلها.
- SC 42: هو معيار مشترك بين IEC وISO يأخذ في الاعتبار النظام الإيكولوجي بأكمله مثل التكنولوجيا، والمتطلبات غير التقنية مثل المتطلبات التجارية والتنظيمية والسياسية، واحتياجات مجال التطبيق، والمخاوف الأخلاقية والمجتمعية.
- الاستراتيجية الوطنية للذكاء الاصطناعي في المملكة المتحدة، مركز أخلاقيات البيانات والابتكار (CDEI) لضمان الذكاء الاصطناعي.
- معايير تحمل المخاطر (Risk Tolerance): من المعهد الوطني للمعايير والتكنولوجيا (NIST) في الولايات المتحدة، والذي يشير إلى استعداد المؤسسة لتحمل المخاطر من أجل تحقيق أهدافها.
- معايير منظورات المخاطر (Risk Perspectives) من معهد (NIST): حيث يمكن أن تؤدي محاولة القضاء على المخاطر تماماً إلى نتائج عكسية في الممارسة العملية، لأنه لا يمكن القضاء على الحوادث والإخفاقات، يمكن لثقافة تخفيف المخاطر أن تساعد الشركات في إدراك أن مخاطر الذكاء الاصطناعي ليست كلها متماثلة، لذا يمكنها تخصيص الموارد بشكل هادف.
- تكامل المخاطر في الشركة: يجب أن يتم دمجها داخل الشركة التي تعمل على تطوير واستخدام تقنيات الذكاء الاصطناعي وإدماجها في استراتيجية وعمليات إدارة المخاطر الأوسع نطاقاً.
القوانين والتشريعات
تكتسب الجهود المبذولة لسن التشريعات المتعلقة بالذكاء الاصطناعي على المستوى الفيدرالي زخماً. على سبيل المثال، سيتطلب قانون المحاسبة الخوارزمية (Algorithmic Accountability Act) اختصاراً (AAA) لعام 2022 في الولايات المتحدة من الشركات ومستخدمي بعض أنظمة الذكاء الاصطناعي إجراء تقييم تأثيرات أنظمة الذكاء الاصطناعي التي تستخدمها وتبيعها، خاصة في التطبيقات عالية الخطورة مثل مراقبة الحدود والترحيل.
اقرأ أيضاً: أوساط الذكاء الاصطناعي يجب أن تتحمل مسؤولية تكنولوجياتها وأفعالها
يترقب العالم اليوم صدور تشريع الذكاء الاصطناعي (AI Act) المقترح من الاتحاد الأوروبي الذي صدر في 2021 ومرّ بعدة مناقشات وتحديثات، ومن المتوقع التصويت عليه في شهر مارس/ آذار من العام الحالي 2023، واعتماده بشكل نهائي بحلول نهاية عام 2023. سيمنح هذا القانون الشركات فترة سنة للتنفيذ والامتثال لأنظمة إدارة المخاطر مع الحوكمة، وفي حالة وجود أضرار ناجمة عن نماذج الذكاء الاصطناعي التي قامت الشركات بتطويرها، سيزداد الحد الأقصى للغرامة إلى 30 مليون يورو أو 6% من الإيرادات الناتجة في السنة المالية السابقة، ولكن كذلك هناك تحدٍ يواجه حكومات الاتحاد الأوروبي في كيفية تطبيق القانون وتطوير واعتماد أدوات للامتثال.