منذ سنة، لم يتخيل أي شخص ما يمكن أن يجلبه لنا العام 2020، وكنت أفكر في المرحلة المفصلية التي كانت تمر بها أوساط الذكاء الاصطناعي؛ فقد شهد العام 2018 سلسلة من الإخفاقات الكبيرة المتعلقة بالأتمتة، مثل حوادث السيارات ذاتية القيادة، وأدوات التوظيف المتحيزة. وقد استجاب حقل الذكاء الاصطناعي في 2019 برفع مستوى الحوار حول أخلاقيات الذكاء الاصطناعي إلى درجة غير مسبوقة. ولكن الكلام -كما أوردت سابقاً- لا يكفي، بل يجب أن نتخذ إجراءات ملموسة. وبعد شهرين من هذا، أدى فيروس كورونا إلى شل حركة العالم بأسره.
وفي ظل الواقع الجديد للتباعد الاجتماعي والقيام بكل شيء عن بعد، أصبحت كل هذه الحوارات حول الأذى الذي تتسبب فيه الخوارزميات محط اهتمام الجميع. وانتقلت بعض الأنظمة الهامشية إلى المركز، مثل خوارزميات هايرفيو لمسح الوجوه وأدوات مراقبة أماكن العمل. أما غيرها، مثل الأدوات المستخدمة لمراقبة وتقييم الطلاب، فقد كانت تعمل بسرعة في الزمن الحقيقي. وفي أغسطس، وبعد الفشل الذريع الذي مُنِيت به الحكومة البريطانية في إحلال الخوارزميات محل الامتحانات الشخصية لدخول الجامعات، تجمع المئات من الطلاب في لندن لترديد شعار بذيء حول الخوارزميات. وعندما صرخ أحد المحتجين في ستانفورد بنفس الشعار احتجاجاً على فضيحة أخرى بعد عدة أشهر، غردت الباحثة في مسؤولية الذكاء الاصطناعي، ديب راجي، قائلة: "لقد تحول هذا الشعار إلى ما يشبه نداء المعركة في 2020".
ولكن في الوقت نفسه، تزايدت الإجراءات الملموسة بالفعل؛ ففي حدث يعتبر من الانتصارات الكبرى، قامت شركات أمازون ومايكروسوفت وآي بي إم بحظر أو تعليق مبيعاتها لأنظمة التعرف على الوجوه إلى مؤسسات فرض القانون، وذلك بعد أن أدى مقتل جورج فلويد إلى إثارة احتجاجات عالمية ضد وحشية الشرطة. وقد كان هذا تتويجاً لسنتين من الكفاح الذي خاضه الباحثون وناشطو الحقوق المدنية لإثبات عدم فعالية تكنولوجيات هذه الشركات وآثارها التمييزية. شهدنا أيضاً تغيراً صغيراً ولكنه ملحوظ، فللمرة الأولى على الإطلاق، فرض مؤتمر نيوريبس NeurIPS -وهو أحد أهم مؤتمرات أبحاث الذكاء الاصطناعي- على الباحثين تقديم تصريح حول الأخلاقيات مع أبحاثهم.
وها نحن ذا الآن في بداية 2021، حيث أصبح اهتمام العامة والمشرعين بتأثير الذكاء الاصطناعي أكبر من ذي قبل. أما قراري للعام الجديد: فلنستثمر هذا التوجه إلى أقصى درجة ممكنة. وإليكم فيما يلي خمسة آمال أتمنى أن تتحقق للذكاء الاصطناعي في هذا العام.
تخفيف تأثير الشركات على الأبحاث
تتمتع الشركات التكنولوجية العملاقة بسيطرة مبالغ فيها على توجهات أبحاث الذكاء الاصطناعي. وقد أدى هذا إلى تغيير اتجاه هذا الحقل بشكل عام نحو البيانات والنماذج التي تتضخم بشكل متزايد، مؤدياً إلى عدة نتائج؛ حيث يؤدي إلى مفاقمة الأثر المناخي لتطور الذكاء الاصطناعي، ويحرم المختبرات ذات الموارد المحدودة من المساهمة في هذا المجال، إضافة إلى تكاسل العمل العلمي بسبب تجاهل العديد من الطرق الأخرى الممكنة. وكما كشفت لنا حادثة فصل جوجل للباحثة تيمنيت جيبرو، فإن الشركات التكنولوجية العملاقة مستعدة للوقوف في وجه دراسة آثار أخرى أيضاً.
ولكن الكثير من تأثير هذه الشركات يُعزى في نهاية المطاف إلى الأموال ونقص مصادر التمويل البديلة. وكما كتبت في السنة الماضية في مقالتي حول أوبن إيه آي، فإن المختبر كان في البداية يحاول الاعتماد فقط على المتبرعين الأثرياء والمستقلين. غير أن هذا الأسلوب لم يكن قابلاً للاستمرار، وبعد أربع سنوات، وقع مختبر أوبن إيه آي صفقة استثمارية مع مايكروسوفت. وآمل بأننا سنشهد تدخل المزيد من الحكومات لملء هذا الفراغ، وتقديم خيارات لا تتعلق بالمسائل الدفاعية لتمويل الباحثين. إنه ليس بالحل المثالي، ولكنه سيكون بداية جيدة على الأقل؛ لأن الحكومات ملتزمة بمصالح العامة، لا بتحقيق الأرباح.
إعادة التركيز على فهم المنطق السليم
أدى الاهتمام الكاسح ببناء نماذج أكثر ضخامة وقوة إلى إهمال أحد الأهداف الأساسية لأبحاث الذكاء الاصطناعي، وهو بناء آلات ذكية لا يقتصر عملها على مطابقة الأنماط، بل استيعاب معانيها فعلياً. وعلى الرغم من أن تأثير الشركات هو أحد العوامل الهامة في هذا التوجه، فإنه ليس العامل الوحيد؛ حيث إن مؤتمرات الذكاء الاصطناعي والمنشورات المحكمة علمياً تركز كثيراً على تحقيق "أحدث" النتائج. غير أن هذه الحداثة تُقاس في أغلب الأحيان بشكل سيئ وفق اختبارات يمكن التغلب عليها عن طريق زيادة البيانات وتضخيم النماذج.
لا يقتضي هذا أن النماذج الضخمة لن تستطيع أبداً تحقيق استيعاب المنطق السليم؛ فهذا ما يزال سؤالاً مفتوحاً. ولكن توجد مجالات بحثية أخرى تستحق المزيد من الاستثمار، حيث يراهن بعض الخبراء على الذكاء الاصطناعي العصبي الصوري، الذي يجمع ما بين التعلم العميق وأنظمة المعرفة الصورية. ويعمل آخرون على إجراء تجارب باتباع تقنيات أكثر اعتماداً على الاحتمالات وتستخدم مقداراً أقل بكثير من البيانات، وهي مستوحاة من قدرة الطفل البشري على التعلم من عدد قليل جداً من الأمثلة.
وفي 2021، آمل بأن هذا الحقل سيعيد ترتيب دوافعه لإعطاء الأولوية للفهم بدلاً من التنبؤ. فلن يؤدي هذا إلى أنظمة أكثر استقراراً ورسوخاً فحسب، بل يمكن أن تؤدي هذه التطورات إلى نتائج اجتماعية هائلة أيضاً. وعلى سبيل المثال، فإن قابلية أنظمة التعلم العميق الحالية للتعرض للخداع تقوض أمان السيارات ذاتية القيادة، وتحمل الكثير من الاحتمالات الخطيرة بالنسبة للأسلحة ذاتية التحكم. كما أن عجز هذه الأنظمة عن التمييز بين الترابط والسببية يمثل أحد جذور التمييز الخوارزمي.
دعم الباحثين المهمشين
إذا كانت الخوارزميات تعتبر تمثيلاً برمجياً لقيم ووجهات نظر مصمميها، فيجب أن تشمل عملية تطويرها قطاعاً واسعاً من البشرية. ولم أرَ ما يدل على هذا من مؤتمر نيوريبس الذي حضرته في ديسمبر من العام 2019؛ ففي ذلك العام، وبوجود عدد غير مسبوق من النساء والأقليات بين المتحدثين والحضور، أحسست بتغير ملموس في لهجة وتوجه الحوارات والمواضيع؛ فقد تزايدت الأحاديث أكثر من ذي قبل حول التعامل مع تأثير الذكاء الاصطناعي على المجتمع.
وفي ذلك الوقت، أكبرت التقدم الذي أحرزته أوساط الذكاء الاصطناعي. ولكن معاملة جوجل لجيبرو -التي كانت واحدة من النساء السمراوات البارزات في مجال الذكاء الاصطناعي- بينت لي أن الطريق ما زالت طويلة للغاية؛ حيث إن التنوع في الأعداد سيبقى دون معنى ما لم يتمتع هؤلاء الأفراد بالقدرة على التعبير عن تجاربهم الحياتية في عملهم. وعلى الرغم من هذا، فإنني متفائلة بأن التغيير قادم لا محالة؛ فقد تحولت شرارة طرد جيبرو إلى لحظة مفصلية دفعت الصناعة بأكملها إلى التأمل. وآمل بأن هذا الزخم سيؤدي إلى تغيير طويل الأمد في النظام القائم.
وضع وجهات نظر الشرائح المتأثرة في مركز الاهتمام
يجب أيضاً أن نشمل مشاركة مجموعة أخرى. فقد كان ظهور التعلم الآلي التشاركي من أكثر الاتجاهات إثارة في السنة الماضية. وهو عبارة عن توجه نحو إعادة تصميم عملية تطوير الذكاء الاصطناعي بحيث تشمل الشرائح التي ستُطبق عليها الخوارزمية في نهاية المطاف.
ففي يوليو، كانت أول ورشة عمل في المؤتمر مكرسة لهذه المقاربة، وقد جمعت نطاقاً واسعاً من الأفكار حول الشكل الذي سيأخذه هذا المفهوم الجديد. وتضمنت الاقتراحات إجراءات حوكمة جديدة لالتماس آراء المجتمع، وأساليب جديدة لتدقيق النماذج من أجل إعلام وإشراك العامة، وأساليب جديدة لإعادة تصميم أنظمة الذكاء الاصطناعي لمنح المستخدمين درجة أكبر من التحكم في إعداداتهم.
وآمل بأننا سنشهد في 2021 جدية واضحة في دراسة وتبني المزيد من هذه الأفكار. وقد بدأت فيسبوك منذ الآن بهذا، فإذا التزمت بالسماح للجنة الإشراف الخارجية الخاصة بها بإجراء تغييرات إلزامية على سياسات مراقبة وتعديل المحتوى في المنصة، فقد تصبح هيكلية الحوكمة عبارة عن آلية جديرة بالتقليد للحصول على ردود الفعل.
وضع قوانين تجسد التعديلات والضمانات المطلوبة
حتى الآن، لعبت الجهود الفردية والخاصة الدور المحوري في التخفيف من أذى الخوارزميات وإلزام الشركات التكنولوجية العملاقة بتحمل مسؤولياتها. ولكن عبء ترسيخ هذه القواعد والضمانات الجديدة -بصورة أكثر استقراراً ودواماً- سيقع على كاهل المشرعين الوطنيين والدوليين. أما الأخبار الجيدة فهي أن المشرعين في جميع أنحاء العالم كانوا يشاهدون ما يحدث، وقد بدؤوا بوضع مسودات القوانين؛ ففي الولايات المتحدة، قام بعض أعضاء الكونجرس بتقديم مشاريع قوانين للتعامل مع مشاكل أنظمة التعرف على الوجوه وتحيز الذكاء الاصطناعي والتزييف العميق. كما أرسل بعضهم رسالة إلى جوجل في ديسمبر للتعبير عن نيتهم في الاستمرار بالعمل على إقرار هذا القانون.
وبالتالي، فإن آخر آمالي في 2021 أننا سنشهد إقرار بعضٍ من هذه القوانين. لقد حان الوقت لتحويل ما تعلمناه في السنوات القليلة الماضية إلى قوانين، والانتقال من التخيل إلى التنظيم الذاتي.