البيت الأبيض يكشف عن قانون جديد لحماية المواطنين في عصر الذكاء الاصطناعي

4 دقائق
البيت الأبيض يكشف عن وثيقة جديدة لحقوق الذكاء الاصطناعي
مصدر الصورة: ستيفاني أرنيت/ ميتر/ غيتي إيميدجيز

يرغب البيت الأبيض في أن يعلم الأميركيون بأن عصر مسؤولية الذكاء الاصطناعي مقبل. 

فقد كشف الرئيس الأميركي بايدن عن مجموعة جديدة من حقوق الذكاء الاصطناعي، والتي تنص على خمسة أنواع من الحماية التي يجب أن يحصل عليها الأميركيون في عصر الذكاء الاصطناعي. 

وعلى حين دعا بايدن في السابق إلى تطبيق إجراءات أكثر صرامة لحماية الخصوصية، وتوقف الشركات التكنولوجية عن جمع البيانات، فإن الولايات المتحدة –وهي موطن بعض من أكبر الشركات التكنولوجية وشركات الذكاء الاصطناعي- ما زالت حتى الآن واحدة من الدول الغربية القليلة دون توجيهات واضحة حول كيفية حماية مواطنيها من أضرار الذكاء الاصطناعي. 

ويمثل هذا الإعلان رؤية البيت الأبيض حول أسلوب عمل الحكومة الأميركية والشركات التكنولوجية والمواطنين بشكل مشترك لتحميل المسؤولية للذكاء الاصطناعي. ولكن المنتقدين يقولون إن المسودة تفتقر إلى إجراءات صارمة، وإن الولايات المتحدة تحتاج إلى قواعد تنظيمية أكثر شدة حتى للذكاء الاصطناعي.

مبادئ جديدة نص عليها القانون

في سبتمبر/ أيلول، أعلنت الإدارة عن المبادئ الأساسية لمسؤولية الشركات التكنولوجية وإصلاحها، مثل التوقف عن الاعتماد على الخوارزميات المتحيزة في اتخاذ القرار، وتعزيز التنافسية في القطاع التكنولوجي، وتوفير الحماية الفيدرالية للخصوصية.

ويمثل مشروع قانون حقوق الذكاء الاصطناعي، الذي تمت صياغة رؤيته لأول مرة منذ سنة من قبل مكتب سياسات العلوم والتكنولوجيا في البيت الأبيض (OSTP)، وهو دائرة حكومية تقدم الاستشارات للرئيس الأميركي حول العلوم والتكنولوجيا، خطة لتحقيق هذه الأهداف. ويتضمن هذا المشروع توجيهات عملية للوكالات الحكومية، ودعوة موجهة إلى الشركات التكنولوجية والباحثين والمجتمع المدني لبناء أوجه الحماية هذه. 

وقد قال أحد كبار مسؤولي الإدارة للمراسلين في مؤتمر صحافي: "هذه التكنولوجيات تتسبب بأضرار حقيقية لحياة الأميركيين، وهو ما يتعارض مع قيمنا الديمقراطية الأساسية، بما في ذلك الحق المبدئي في الخصوصية، وعدم التعرض للتمييز العنصري، وحماية كرامتنا الإنسانية".

أضرار الذكاء الاصطناعي

يمثل الذكاء الاصطناعي أحد التكنولوجيات التي تحدث تحولاً كبيراً في مجتمعاتنا. كما أنه يحمل القدرة على التسبب بأضرار جسيمة، وهي أضرار تصيب الشرائح المهمشة على وجه الخصوص. فتكنولوجيات التعرف على الوجوه التي تستخدمها الشرطة، والخوارزميات التي توزّع المستحقات والمكاسب، لا تتمتع بنفس الدقة عند التعامل مع الأقليات، على سبيل المثال. 

وتهدف قائمة الحقوق إلى التخلص من هذا الاختلال في التوازن. فهي تقول إن الأميركيين يجب أن يكونوا محميين من الأنظمة غير الآمنة وغير الفعّالة، وإنهم يجب ألا يتعرضوا للتمييز بسبب الخوارزميات، وإن الأنظمة يجب أن تكون مصممة بطريقة تحقق العدالة، وإن الأميركيين يجب أن يكونوا محميين من الممارسات المسيئة المتعلقة بالبيانات عبر أنظمة حماية متكاملة، وأن يتمتعوا بالسيطرة على كيفية استخدام بياناتهم. كما يجب أن يتم إبلاغ المواطنين عند استخدام نظام مؤتمت عليهم، وينبغي لهم أن يدركوا كيفية مساهمته في النتائج. وأخيراً، يجب أن يكون الخيار متاحاً أمام الجميع على الدوام للتوقف عن استخدام نظام ذكاء اصطناعي، والاستعانة ببديل بشري، ويجب أن تكون هناك حلول متاحة للمشكلات المتوقعة. 

وقد قال مسؤول ثانٍ من أحد كبار مسؤولي الإدارة: "نريد أن نضمن حماية الناس من أسوأ آثار هذه التكنولوجيا، بصرف النظر عن السياق الخاص للعمليات التكنولوجية الجارية". 

اقرأ أيضاً: مشروع قانون أميركي جديد يحظر استخدام الشرطة لتكنولوجيا التعرف على الوجوه

يقول مدير مركز سياسات الذكاء الاصطناعي والسياسات الرقمية، وهو منظمة لا ربحية تتعامل مع سياسات الذكاء الاصطناعي، مارك روتينبيرغ، إن وثيقة حقوق الذكاء الاصطناعي التي وضعها مكتب سياسات العلوم والتكنولوجيا في البيت الأبيض "مثيرة للإعجاب".

ويضيف قائلاً: "إنها خطوة أولية دون شك. ولن تمثل نهاية الجدل حول كيفية تطبيق الولايات المتحدة للذكاء الاصطناعي الموثوق والذي يتمحور حول البشر. ولكنها خطوة أولية جيدة دون شك، حيث تنقل الولايات المتحدة إلى موضع يتيح لها متابعة العمل على هذا الالتزام".

تقول محللة السياسات الأميركية في مجموعة الحقوق الرقمية أكسيس ناو (Access Now)، ويلماري إسكوتو، إن هذه التوجيهات تسلّط الضوء ببراعة على "أهمية التخفيف من جمع البيانات إلى أدنى حد ممكن، مع تحديد الأضرار المختلفة التي يتعرض لها الناس من التكنولوجيات الأخرى التي تعتمد على الذكاء الاصطناعي، مثل التعرف على العواطف، ووضع أساليب لمعالجتها".

"يمكن لوثيقة حقوق الذكاء الاصطناعي أن تحدث أثراً كبيراً على الحريات المدنية الأساسية لذوي الأصول الإفريقية واللاتينية في البلاد"، كما تضيف إسكوتو.

رحّب القطاع التكنولوجي أيضاً باعتراف البيت الأبيض بأن الذكاء الاصطناعي يمكن أن يُستخدم لأغراض خيّرة. 

اقرأ أيضاً: الشرطة تعتمد على بيانات مزيفة لتدريب أنظمة الذكاء الاصطناعي في جميع أنحاء أميركا

ويقول رئيس مجموعة الضغط التكنولوجية "سي سي آي أيه (CCIA)، والتي تتضمن شركات مثل جوجل (Google) وأمازون (Amazon) وأوبر (Uber)، مات شرويرز، إنه يقدر توجيهات الإدارة "التي تقول إنه يجب على الوكالات الحكومية أن تكون مثالاً يحتذى به في تطوير المبادئ الأخلاقية للذكاء الاصطناعي، وتقادي التمييز، وتطوير إطار لإدارة المخاطر لأخصائيي التكنولوجيا في الحكومة".

أمّا مديرة سياسات الذكاء الاصطناعي في مجموعة الضغط التكنولوجية "بي إس أيه" (BSA)، والتي تتضمن أعضاء مثل مايكروسوفت (Microsoft) وآي بي إم (IBM)، شاوندرا واتسون، فقد رحّبت بالمقاربة المعتمدة في هذه الوثيقة للتركيز على المخاطر وتقييم الآثار. تقول واتسون: "سيكون من المهم ضمان تطبيق هذه المبادئ بطريقة تزيد من الحماية والوثوقية في الممارسات".

كيف يمكن تطبيق هذه القوانين؟

وعلى حين يعمل الاتحاد الأوروبي على فرض قوانين تهدف إلى منع أضرار الذكاء الاصطناعي، وتحميل الشركات المسؤولية عن تقنيات الذكاء الاصطناعي المسببة للأضرار، إضافة إلى وجود نظام صارم لحماية البيانات، فإن الولايات المتحدة تظهر تردداً في فرض قوانين جديدة. 

وعلى حين تماثل الحمايات الجديدة تلك التي فرضها الاتحاد الأوروبي، فإن وثيقة حقوق الذكاء الاصطناعي غير ملزمة، ولا تمثل سياسة فعلية لحكومة الولايات المتحدة، لأن مكتب سياسات العلوم والتكنولوجيا في البيت الأبيض لا يستطيع فرض القوانين. وسيتعين على المشرعين اقتراح مشاريع قوانين جديدة. 

يقول مدير السياسات في معهد ستانفورد للذكاء الاصطناعي الذي يتمحور حول البشر، راسل والد، إن الوثيقة تفتقر إلى إجراءات صارمة أو تفاصيل حول كيفية فرض قواعدها. 

ويقول: "من المؤسف أن نرى هذا التفكك في السياسة الفيدرالية التي نحتاج إليها بشدة لمواجهة تحديات الذكاء الاصطناعي، مثل التنسيق الفيدرالي في المراقبة والتدقيق وإجراءات المراجعة لتخفيف المخاطر والأضرار التي تتسبب بها النماذج الأساسية المنتشرة المستخدمة أو مفتوحة المصدر".

ويقول روتينبيرغ إنه يرغب في رؤية لوائح تنظيمية أميركية مماثلة لقانون الذكاء الاصطناعي في الاتحاد الأوروبي، وهو قانون يُنتظر إقراره يهدف إلى منع أضرار الذكاء الاصطناعي عن طريق فرض ضوابط ومعايير إضافية على استخدام أنظمة الذكاء الاصطناعي الأكثر قدرة على إلحاق الضرر بالبشر. 

ويقول: "نرغب برؤية محظورات واضحة حول استخدام الذكاء الاصطناعي الأكثر إثارة للجدل، مثل استخدام أنظمة التعرف على الوجوه من أجل المراقبة الجماعية واسعة النطاق".

المحتوى محمي