يان لوكون مسؤول الذكاء الاصطناعي في ميتا: الذكاء الاصطناعي لن يدمر الوظائف

3 دقائق
يان لوكون مسؤول الذكاء الاصطناعي في ميتا: الذكاء الاصطناعي لن يدمر الوظائف
حقوق الصورة: shutterstock.com/Stokkete

على عكس زملائه، لا يرى عالم الحاسوب الفرنسي وأحد الآباء الروحيين الثلاثة للذكاء الاصطناعي يان لوكون (Yann LeCun)، أي خطر وراء الذكاء الاصطناعي، حتى إنه لا يتمتع بذكاء الكلب برأيه. مع ذلك، قد تتمكن الآلات يوماً ما من التفوق على البشر.

هذا ما أعلنه لوكون، الذي يشغل حالياً منصب كبير علماء الذكاء الاصطناعي في شركة ميتا (Meta) في حديث له مع قناة بي بي سي (BBC)، كما وصف تهديد الذكاء الاصطناعي للوجود البشري بأنه "سخيف بشكلٍ غير معقول".

خطر الذكاء الاصطناعي على البشرية

عام 2018، نال كلٌّ من لوكون وجيفري هينتون (Geoffrey Hinton) ويوشوا بينجيو (Yoshua Bengio) جائزة تورينغ، وهي بمثابة جائزة نوبل غير الرسمية في علوم الكمبيوتر، لنهجهم الرائد في السماح للآلات بالتعلم من النموذج البيولوجي للدماغ البشري. وعلى إثرها لُقّب الثلاثة بعرابي الذكاء الاصطناعي أو الآباء الروحيين له، إلّا أن تصريحات الثلاثة حول مخاطر الذكاء الاصطناعي قد تباينت فيما بينهم.

عُرف عن هينتون مساهماته في الشبكات العصبونية الاصطناعية، وهي أنظمة تماثل الدماغ البشري من حيث الطريقة التي يتلقن بها المعلومات ويعالجها، وقد مكّنت الذكاء الاصطناعي من التعلم من التجربة، وهو ما يُعرف بالتعلم العميق.

في مايو/ أيار من عام 2023، استقال هينتون من شركة جوجل عن عمر يناهز الـ 74 عاماً. قال هينتون عبر صحيفة نيويورك تايمز، إنه يأسف لعمله، محذّراً من بعض المخاطر المحتملة لبوتات الدردشة مثل تشات جي بي تي وبارد: "في الوقت الحالي، هم ليسوا أكثر ذكاءً منا، لكنني أعتقد أنهم قد يكونون كذلك عاجلاً؛ أي أنها قد تتجاوز قريباً مستوى المعلومات التي يحملها الدماغ البشري. وبالنظر إلى السرعة التي تتطور بها هذه البرامج، ربما يجدر بنا أن نكون أكثر قلقاً".

تشمل الأخطار المحددة المحتملة التي يحذّر منها مركز الأبحاث التابع لمركز أمان الذكاء الاصطناعي (CAIS)، الأسلحة الكيميائية التي يمكن للذكاء الاصطناعي تطويرها، أو تحرر الذكاء الاصطناعي من البشر، بما في ذلك الآلات التي تتولى السلطة. 

اقرأ أيضاً: أحد آباء الذكاء الاصطناعي يشعر بالقلق على مستقبل هذه التقانة

التوقف مؤقتاً

قبل هينتون، تعالت الأصوات المحذّرة من مخاطر الذكاء الاصطناعي بشكلٍ متواصل، مثل يوشوا بينجيو، الأب الروحي الثالث للذكاء الاصطناعي، الذي وقّع خطاباً مفتوحاً نشرته منظمة فيوتشر أو ف لايف (Future of Life) على موقعها. دعت المنظمة إلى ضرورة وقف التطوير مؤقتاً عند هذا المستوى، وطالبت بـ "التوقف فوراً لمدة ستة أشهر على الأقل عن تدريب نماذج الذكاء الاصطناعي الأكثر قوة من جي بي تي-4 (GPT-4)".

طالب بينجيو عبر موقعه الرسمي، بإبطاء وتيرة تطوير أنظمة الذكاء الاصطناعي القوية، والتي يمكنها اجتياز اختبار تورينغ، مشيراً إلى بعض المخاطر المحتملة لتطوير أنظمة ذكاء اصطناعي ذات سلوك منحرف عن الأهداف والقيم البشرية، مثل التلاعب بالرأي العام.

بالإضافة إلى بينجيو، وقّع على البيان أكثر من 1000 شخصية عالمية، مثل إيلون ماسك وعماد موستاك (Emad Mostaque) رئيس شركة ستابيليتي أيه آي (Stability AI)، بالإضافة إلى ستيف وزنياك (Steve Wozniak) المؤسس المشارك لشركة آبل، وبعض الخبراء في ديب مايند (DeepMind).

اقرأ أيضاً: إيلون ماسك وآلاف الخبراء يدعون لتعليق تطوير أنظمة الذكاء الاصطناعي لمدة 6 أشهر

يان لوكون: لن يسيطر الذكاء الاصطناعي على العالم

في المؤتمر التقني فيفا تك (Viva Tech) الذي عُقد في باريس في 15 يونيو/ حزيران 2023، وقبل التصويت على قانون الذكاء الاصطناعي في أوروبا الذي يهدف إلى تنظيم الذكاء الاصطناعي، وضّح لوكون أن أنظمة الذكاء الاصطناعي الحالية محدودة وليس لديها فهم للواقع الأساسي للعالم، لأنها مدرّبة على كمية هائلة من النصوص.

كما أشار إلى أننا نحتاج إلى أعوام أو حتى عقود من الزمن حتى تتمكن أنظمة الذكاء الاصطناعي من التفوق على الذكاء البشري، فإذا أدركنا أن الوضع ليس آمناً، علينا فقط أن نوقف بناءه، بتلك البساطة.

يفترض الخبير تقدماً تدريجياً، حيث سيتم بدايةً بناء ذكاء اصطناعي قوي مثل دماغ الفأر. ومع ذلك، لن يغزو العالم، ولكنه سيعتمد على مركز بيانات لتشغيله، فإذا أدركت أن الوضع ليس آمناً، توقف عن بنائه.

المشكلة، كما وصفها لوكون، تكمن لدى مَن يخشون الذكاء الاصطناعي في أنهم لم يتصورا بعد الطريقة التي يمكن أن نجعل هذه الأنظمة أكثر أماناً. يقول: "الأمر أشبه بسؤال شخص ما في عام 1930 عن كيفية جعل طائرة نفاثة آمنة. لم يتم اختراع الطائرات النفاثة عام 1930، تماماً مثلما لم يتم اختراع ذكاء اصطناعي على المستوى البشري بعد"، إلّا أنه في نهاية المطاف تم تطوير طائرات نفاثة على مستوى عالٍ من الأمان. ويتوقع لوكون أن يحدث الشيء نفسه مع الذكاء الاصطناعي.

اقرأ أيضاً: مستقبل الذكاء الاصطناعي: رؤية جديدة وجريئة يرسمها أحد كبار خبراء المجال

التأثير على الوظائف

لدى سؤال لوكون عن قدرة الذكاء الاصطناعي في التأثير على الوظائف، وضّح أنه لن يؤدي إلى توقف عمل الكثير، كما افترض أن العمل سيتغير، وبالتالي ستتغير طبيعة الوظائف معه بعد 20 سنة من الآن. ومع ذلك، سيخلق الذكاء الاصطناعي نهضة للبشرية، مثلما فعلت شبكة الإنترنت قبله.

وفيما يخص الروبوتات، توقع لوكون أن الآلات ستصبح أكثر ذكاءً من البشر، إلّا أن ذلك ينبغي ألّا يشكّل خطراً عليهم. وعلى العكس من ذلك، قد يكون من المفيد أن يكون لدى كل منا مساعد ذكاء اصطناعي أذكى منه، لمساعدتنا في حياتنا اليومية، وهو ما يحتاج إلى الخضوع للإرادة البشرية بشكلٍ تام.

وفي محاولة للتنظيم العالمي للذكاء الاصطناعي، وافق البرلمان الأوروبي، في 14 من يونيو/ حزيران من عام 2023، بأغلبية ساحقة على مشروع قانون الذكاء الاصطناعي (AI Act)، الذي يعد أول مجموعة شاملة من القواعد التي تحكم الذكاء الاصطناعي، متضمناً لوائح تنظيمية هي الأولى من نوعها.

اقرأ أيضاً: هل ينقذ الذكاء الاصطناعي المزدهر الاقتصاد المتدهور؟

اختتم البروفيسور لوكون بأنه لا يعارض اللوائح التنظيمية، إلّا أن كلَّ تطبيق سيحتاج إلى قواعده الخاصة. على سبيل المثال، ستختلف القواعد المنظمة لأنظمة الذكاء الاصطناعي في السيارات عن تلك المنظمة للأنظمة المستخدمة في مسح الصور الطبية.

المحتوى محمي