في السنة الماضية، عندما بدأتُ بتغطية أخبار الذكاء الاصطناعي، كان عالم الذكاء الاصطناعي يتعرض لهزة كبيرة؛ فقد ظهرت بعض التطورات المذهلة في أبحاث الذكاء الاصطناعي في 2018، من التعلم المعزز والشبكات التوليدية التنافسية إلى زيادة فعالية فهم اللغات الطبيعية. ولكن هذه السنة شهدت أيضاً عدة حالات ذائعة الصيت تُبين الأذى الذي يمكن أن تتسبب فيه هذه الأنظمة عند تطبيقها على عجالة؛ فقد تحطمت سيارة تسلا أثناء سيرها تحت سيطرة الربان الآلي وتسببت في مقتل السائق، وتحطمت سيارة أوبر ذاتية القيادة وتسببت في مقتل أحد المارة، كما حققت الأنظمة التجارية للتعرف على الوجوه أداء مريعاً أثناء عمليات التدقيق على الأشخاص سُمر البشرة، ولكن الشركات التكنولوجية العملاقة لم تكترث وواصلت بيع هذه الأنظمة للمستهلكين، بما فيها مؤسسات فرض القانون.
وفي بداية هذه السنة، وبعد التفكير في هذه الأحداث، وضعتُ تعهداً دعوت أوساط الذكاء الاصطناعي إلى الالتزام به، هو: التوقف عن النظر إلى الذكاء الاصطناعي على أنه سحر، وتحمل مسؤولية بنائه وتطبيقه وتنظيمه بشكل أخلاقي.
في 2019، تحققت أمنيتي إلى حد ما، وازداد الحديث حول أخلاقيات الذكاء الاصطناعي إلى درجة غير مسبوقة؛ فقد وضعت العشرات من المنظمات توجيهات حول أخلاقيات الذكاء الاصطناعي، وسارعت الشركات إلى تأسيس فرق ذكاء اصطناعي ذات طابع مسؤول، وتقديمها إلى وسائل الإعلام. وأصبح من شبه المستحيل أن نرى مؤتمراً حول الذكاء الاصطناعي يخلو من جزء مخصص للأخلاقيات في برنامج نشاطاته: كيف نحمي خصوصية الناس ونلبي في نفس الوقت حاجة الذكاء الاصطناعي إلى كميات هائلة من البيانات؟ كيف نعزز من دور المجتمعات المهمشة بدلاً من استغلالها؟ كيف يمكن أن نستمر في الثقة بوسائل الإعلام في وجه الخوارزميات المستخدمة لتشكيل ونشر المعلومات المزيفة؟
ولكن الكلام يبقى كلاماً لا أكثر، وهو لا يكفي على الإطلاق. فعلى الرغم من الحديث المتواصل حول هذه المسائل، ما زالت الكثير من التوجيهات التي وضعتها المنظمات حول أخلاقيات الذكاء الاصطناعي غامضة وصعبة التطبيق، ولا توجد تغيرات ملموسة في طريقة تقييم منتجات وخدمات الذكاء الاصطناعي والموافقة عليها إلا لدى بضع شركات. لقد وقعنا في فخ اجترار الأخلاقيات، حيث تحل الوعود السطحية محل الإجراءات الفعلية. وفي أحد أكثر الأمثلة وضوحاً على هذا، قامت جوجل بتشكيل مجلس إشراف اسمي لأخلاقيات الذكاء الاصطناعي من دون أي سلطة فعلية لإيقاف المشاريع المشكوك في أمرها، كما كان يتضمن بضعة أعضاء أثار وجودهم جدلاً كبيراً، وأدت ردة الفعل السلبية الحادة إلى حل هذا المجلس على الفور.
في هذه الأثناء، ازدادت الحاجة إلى رفع مستوى المسؤولية الأخلاقية؛ فقد أدت التطورات التي تحققت في مجال الشبكات العصبونية التوليدية التنافسية في 2018 إلى انتشار المواد عميقة التزييف عالية الدقة، التي أصبحت الآن تُستخدم لاستهداف النساء وتقويض ثقة الناس في التوثيق والأدلة. كما ألقت نتائج جديدة الضوء على التأثير المناخي الهائل للتعلم العميق، ولكن المنظمات واصلت تدريب نماذج أكثر ضخامة وأكثر استهلاكاً للطاقة. وقد كشف الأكاديميون والصحافيون أيضاً عن العدد الهائل من البشر الذين يعملون في كواليس الخوارزميات، حيث أدت صناعة الذكاء الاصطناعي إلى ظهور طبقة جديدة تماماً من العاملين في الخفاء، مثل مراقبي المحتوى، ومصنفي البيانات، وناقلي النصوص المنطوقة إلى نصوص مكتوبة، والذين يعملون غالباً في ظروف سيئة للغاية.
ولكن ليس كل شيء سيئاً إلى هذه الدرجة، فقد كانت 2019 السنة التي انطلقت فيها أكبر المبادرات على المستوى الأساسي ضد أضرار الذكاء الاصطناعي من المجموعات المحلية، وصانعي السياسات، بل حتى من موظفي الشركات التكنولوجية نفسها؛ حيث قامت عدة مدن، مثل سان فرانسيسكو وأوكلاند في كاليفورنيا وسومرفيل في ماساتشوستس بحظر الاستخدام العام لأنظمة التعرف على الوجوه، ويمكن أن يؤدي مقترح قانون فدرالي إلى حظرها أيضاً من المساكن العامة في الولايات المتحدة. وقد أصبح موظفو الشركات التكنولوجية العملاقة، مثل مايكروسوفت وجوجل وسيلزفورس، أكثر جرأة في التعبير عن معارضتهم لاستخدام شركاتهم للذكاء الاصطناعي في تتبع المهاجرين والمراقبة بالطائرات المسيرة.
أما ضمن أوساط الذكاء الاصطناعي، فقد بدأ الباحثون يركزون على محاولة التخفيف من تحيز الذكاء الاصطناعي وأعادوا النظر بالعوامل التي تؤدي إلى استهلاك الطاقة المتفلت من جميع الضوابط في مجال الذكاء الاصطناعي. وخصصت الشركات المزيد من الموارد من أجل حماية خصوصية المستخدمين ومكافحة التزييف العميق وتزييف المعلومات. وقد عمل الخبراء وصانعو السياسات بشكل متسق لاقتراح تشريع جديد ودقيق لمكافحة العواقب غير المرغوبة من دون تثبيط الإبداع. وفي أضخم تجمع سنوي في هذا المجال هذه السنة، فوجئت وشعرت بسعادة غامرة في نفس الوقت بعد أن رأيت النسبة الكبيرة من المتحدثين وورشات العمل والملصقات التي تركز على مشاكل العالم الحقيقي، سواء تلك التي ظهرت بسبب الذكاء الاصطناعي، أو التي يمكن أن يساعد الذكاء الاصطناعي على حلها.
وبالتالي، آمل في 2020 أن تحافظ الشركات والمؤسسات الأكاديمية على هذا الزخم، وتطبق تغيرات راسخة من القاعدة نحو القمة وبالعكس لإعادة تنسيق عملية تطوير الذكاء الاصطناعي. وعلى الرغم من أن الأوان لم يفت بعد، يجب ألا نفقد تركيزنا على الحلم الذي يمثل المحرك الأساسي لهذا المجال. فمنذ عدة عقود، بدأ البشر يعملون على بناء الآلات الذكية حتى تستطيع مساعدتنا يوماً ما على مواجهة تحدياتنا الصعبة.
باختصار: يهدف الذكاء الاصطناعي إلى ازدهار البشرية، وهذا ما يجب ألا ننساه.