عندما مثُل مارك زوكربيرج (المدير التنفيذي لفيسبوك) أمام الكونجرس الأميركي، أدرك خبراء التكنولوجيا بسرعة مدى جهل الأشخاص الذين كانوا يستجوبونه. وعلى الرغم من رغبة الكونجرس العارمة في ضبط جماح الشركة التقنية العملاقة، فقد كان من الواضح أنه ليس لديهم أدنى فكرة عن كيفية تحقيق هذا الهدف، وبدلاً من هذا أفسحوا المجال لزوكربيرج حتى يتهرب منهم متذرعاً ببعض الادعاءات المفخمة حول حل جميع مشاكل الشركة باستخدام الذكاء الاصطناعي.
وبيَّنت هذه الجلسة لديبايان جوش (وهو باحث زميل في مدرسة كينيدي في هارفارد) الحاجة الملحة إلى إطلاع صانعي السياسات الأميركيين على أحدث المسائل التقنية، خصوصاً ما يتعلق بالذكاء الاصطناعي، حيث يقول جوش (الذي شغل منصب مستشار للسياسات التقنية في إدارة أوباما): "يعتبر الذكاء الاصطناعي تقنية هائلة، ولكن هناك العديد من المشاكل الواضحة التي رأيناها تظهر بشكل تلقائي في المجتمع. ويجب أن نُطلِع ذوي السلطة على طريقة عمل هذه الأنظمة بشكل فعلي، بحيث يكون لديهم ما يكفي من المعلومات الضرورية عند العمل على القوانين والقواعد الناظمة".
ويشارك جوش في إدارة مبادرة جديدة حول سياسات الذكاء الاصطناعي تم إطلاقها مؤخراً، وذلك بالاشتراك مع توم ويلر (وهو باحث أساسي زميل في مدرسة كينيدي في هارفارد، ورئيس مجلس الهيئة الفدرالية للاتصالات في إدارة أوباما).
وقد قام مركز شورينستاين للإعلام والسياسة والسياسات العامة في مدرسة كينيدي في هارفارد بتمويل المبادرة، التي ستركز على توسيع المنح الأكاديمية والقانونية المتعلقة بأخلاقيات الذكاء الاصطناعي وتنظيمه، كما ستستضيف معسكراً تدريبياً لأعضاء الكونجرس الأميركي لمساعدتهم على تعلم المزيد حول هذه التقنية. وتهدف هذه المبادرة -كما يؤمل منها- إلى تزويد أعضاء الكونجرس وغيرهم من صانعي السياسات بأدوات أفضل لوضع أنظمة أكثر فعالية، وتوجيه التأثير المتزايد للذكاء الاصطناعي على المجتمع.
وكانت العديد من الفضائح التقنية الشهيرة -على مدى السنة الماضية- قد أثبتت مخاطر تطبيق الذكاء الاصطناعي بشكل سيئ، مثل استخدام التعلم الآلي لنشر المعلومات المزيفة على وسائل التواصل الاجتماعي، وأتمتة الممارسات المتحيزة والعنصرية عبر تقنيات آلية عديدة مثل التعرف على الوجوه.
وضمن ندوة إيه آي ناو في أكتوبر، أكَّد أخصائيو التكنولوجيا وناشطو حقوق الإنسان وخبراء القانون -وبشكل متكرر- على أهمية وجود أنظمة لمحاسبة الذكاء الاصطناعي. تقول شيريلين آيفيل (الرئيسة والمديرة-المحامية لصندوق الدفاع القانوني للمؤسسة الوطنية لدعم الناس من غير العرق الأبيض): "تتمتع الحكومة بالنظرة البعيدة، وهي تتحمل -بالكثير من الوسائل- مسؤولية طرح الدروس التاريخية على الشركات وغيرها من المؤسسات التي تعمل على تطوير هذه التقنيات".
غير أن الحكومة تفتقر إلى المعرفة اللازمة لتحمل هذه المسؤولية، كما يقول جوش: "إذا سألت عضواً من الكونجرس عما إذا كان الذكاء الاصطناعي جزءاً من مشكلة المعلومات المزيفة، فقد يقول لك إنه لا يعتقد هذا أو إنه لا يعرف".
وضمن إطار هذه المبادرة، طلب جوش وويلر من حوالي 30 خبيراً (من أهم الخبراء في علوم الحاسوب والفلسفة والاقتصاد وغيرها من المجالات) التحدث عن مسائل مثل التمييز والعدالة والشفافية والمحاسبة.
وسيتم نشر وجهات النظر هذه تباعاً على مدى الأشهر المقبلة، بدءاً بثلاثة: السياق الاقتصادي لتحيز الخوارزميات لكاثرين تاكر (وهي بروفسورة في مدرسة سلون للإدارة التابعة لإم آي تي)، وأخلاقيات توقيت وطريقة استخدام الذكاء الاصطناعي دون مفاقمة الظلم الموجود حالياً لدانا بويد (مؤسِّسة معهد أبحاث البيانات والمجتمع) وإم إيليش (باحثة أساسية في نفس المركز)، وأخيراً العواقب العنصرية للتسويق بالغ الشخصنة لجوزيف تورو (البروفسور في مدرسة أنينبيرج للاتصالات).
وستستضيف المبادرة معسكراً تدريبياً في واشنطن العاصمة في فبراير المقبل لأعضاء من الكونجرس ومساعديهم في مسائل السياسات التقنية، وذلك لمساعدتهم على تحويل هذه المقالات إلى حوارات سياسية منتجة. وسيبحث المخيم في معنى التصميم الأخلاقي للذكاء الاصطناعي، وتحديد الإجراءات القانونية التي يمكن اتخاذها للتخفيف من مساوئه ودعم فوائده.
ويعترف جوش أن المناخ السياسي الحالي يصعِّب من توحيد وجهات نظر كلا الحزبين الرئيسيين حول أية مسألة، ولكنه يأمل في أنهما سيجدان بعض القواسم المشتركة في هذه القضية الطارئة.