إيلون ماسك وآلاف الخبراء يدعون لتعليق تطوير أنظمة الذكاء الاصطناعي لمدة 6 أشهر

4 دقائق
إيلون ماسك وآلاف الخبراء يدعون لتعليق تطوير أنظمة الذكاء الاصطناعي لمدة 6 أشهر
حقوق الصورة: shutterstock.com/ Andrey_Popov

أدّى سباق الذكاء الاصطناعي المثير الذي بدأ مؤخراً بين شركات التكنولوجيا الكبرى إلى ظهور العديد من الأصوات التي بدأت بالتحذير من عواقب هذا السباق على الحضارة البشرية مستقبلاً، حيث ظهرت عريضة مفتوحة عبر الإنترنت وقّع عليها الآلاف من خبراء الذكاء الاصطناعي وبعض الشخصيات المؤثرة في مجال التكنولوجيا تدعو للتوقف لفترة مؤقتة عن تطوير أنظمة الذكاء الاصطناعي القوي، لمنح الصناعة الوقت اللازم لوضع معايير السلامة وتجنب الأضرار المحتملة لتقنيات الذكاء الاصطناعي الأكثر خطورة.

السباق لتطوير أنظمة الذكاء الاصطناعي خارج عن السيطرة

تطالب العريضة التي وقّع عليها العديد من المدراء التنفيذيين في مجال التكنولوجيا وكبار الباحثين في الذكاء الاصطناعي، بمن في ذلك الرئيس التنفيذي لشركة تسلا إيلون ماسك (Elon Musk) والمؤسس المشارك لشركة آبل ستيف وزنياك (Steve Wozniak)، وعالم الذكاء الاصطناعي ومدير معهد مونتريال لخوارزميات التعلم في جامعة مونتريال يوشوا بينجو (Yoshua Bengio) وغيرهم من الباحثين والعلماء ومدراء الشركات التكنولوجية، بضرورة وقف التطوير السريع لأدوات الذكاء الاصطناعي الجديدة القوية.

وهذا يعود بحسب الموقّعين، والذين وصل عددهم حتى الآن إلى 1700 شخصية، إلى أن تطوير تكنولوجيا الذكاء الاصطناعي القوي قد وصل بالفعل إلى النقطة التي تكون فيها هذه الأنظمة ذكية بما يكفي بحيث يمكن استخدامها بطرق تشكّل خطورة على المجتمع.

وقد تم توضيح هذه المخاوف والتوصية بالتوقف في رسالة بعنوان: إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتاً: رسالة مفتوحة (Pause Giant AI Experiments: An Open Letter) بالتنسيق مع معهد مستقبل الحياة (Future of Life) غير الربحي، يوم الأربعاء التاسع والعشرين من شهر مارس/ آذار 2023، التي أوصت بأنه يجب على مختبرات وخبراء الذكاء الاصطناعي استغلال التوقف المؤقت لتطوير مجموعة من قواعد السلامة المشتركة لتصميم الذكاء الاصطناعي القوي الذي يجب تدقيقه والإشراف عليه من قِبل خبراء خارجيين.

اقرأ أيضاً: كيف تسعى أوبن أيه آي إلى جعل تشات جي بي تي أكثر أماناً وأقل تحيزاً؟

سباق محموم قد تكون عواقبه خطيرة على البشرية

تأتي الدعوة المتعلقة بالتوقف المؤقت عن تطوير أنظمة الذكاء الاصطناعي القوي، بعد ظهور رغبة واسعة بين شركات التكنولوجيا الكبرى والشركات الناشئة في مضاعفة تطوير أنظمة الذكاء الاصطناعي القوي، لا سيما بعد أن كشفت شركة أوبن أيه آي (Open AI) النقاب عن أحدث وأقوى بوتات الدردشة المدعومة بتكنولوجيا الذكاء الاصطناعي التوليدي تشات جي بي تي (ChatGPT)، والقادر على القيام بالعديد من المهام المعقدة التي كانت تعتبر حتى وقت قريب ضرباً من الخيال.

ولاحقاً قامت شركة مايكروسوفت، أبرز المستثمرين في شركة أوبن أيه آي، بدمج التكنولوجيا في محرك البحث التابع لها بينغ، وهو ما جعل شركة جوجل تسارع أيضاً بالانضمام إلى المنافسة وإصدار بوت الدردشة المدعوم بالذكاء الاصطناعي بارد (Bard)، كما قامت العديد من الشركات الأخرى مثل منصة الفيديو زووم (Zoom) وشركة البرمجيات الإبداعية أدوبي (Adobe) وشركة البرمجيات القائمة على السحابة سيلس فورس (Salesforce)، بالكشف عن أدواتها المتقدمة المدعومة بالذكاء الاصطناعي.

وقد أثار هذا النهج مخاوف متجددة من أن التطبيق السريع للذكاء الاصطناعي قد تكون له عواقب غير مقصودة قد تضر بالفوائد الحقيقية له، حيث يذكر رئيس معهد مستقبل الحياة وأستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا وأحد الموقّعين على العريضة ماكس تيغمارك (Max Tegmark): "أن التطورات في الذكاء الاصطناعي تجاوزت ما اعتقد العديد من الخبراء أنه ممكن قبل بضع سنوات فقط".

ويضيف: "من المؤسف تأطير تسارع تطوير أنظمة الذكاء الاصطناعي على أنه سباق تسلح، بل يمكن تشبيهه بأنه أكثر من سباق انتحاري لا يهم من سيصل فيه أولاً، وهذا يعني أن البشرية ككل يمكن أن تفقد السيطرة على مصيرها".

اقرأ أيضاً: تشات جي بي تي يرسب في الفيزياء ولا يفهم الأسئلة المعقدة

المساهمة في نشر المعلومات المضللة واستبدال البشر بالذكاء الاصطناعي

وفقاً للعريضة، فإن أنظمة الذكاء الاصطناعي المتقدمة بحاجة إلى أن يتم تطويرها بعناية، ولكن بدلاً من ذلك، بدا أن مختبرات الذكاء الاصطناعي في الأشهر الأخيرة تخوض سباقاً خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا أحد (ولا حتى مطوريها) يمكنهم أن يفهموا أو يتنبؤوا أو يتحكموا بها بشكلٍ موثوق.

كما تحذّر العريضة من أن الذكاء الاصطناعي يمكن أن يغمر قنوات المعلومات بالمعلومات الخاطئة ويستبدل الوظائف بالأتمتة، لا سيما وأن أحدث تقرير صادر عن بنك الاستثمار غولدمان ساكس (Goldman Sachs) توقع أنه على الرغم من أن الذكاء الاصطناعي قد يزيد الإنتاجية، فإنه يمكن أن يستبدل ملايين الوظائف.

كما يذكر أستاذ علوم الكمبيوتر في جامعة كاليفورنيا وأحد الموقّعين على الرسالة ستيوارت راسل (Stuart Russell): "تشكّل أنظمة الذكاء الاصطناعي مخاطر كبيرة على الديمقراطية من خلال انتشار المعلومات المضللة، وعلى التوظيف من خلال إزاحة المهارات البشرية، وعلى التعليم من خلال ظهور حالات الانتحال".

ويضيف: "في المستقبل، قد يشكّل الذكاء الاصطناعي المتقدم تهديداً عاماً للسيطرة البشرية على حضارتنا، وعلى المدى الطويل فإن اتخاذ الاحتياطات المعقولة هو ثمن ضئيل يجب دفعه للتخفيف من هذه المخاطر".

اقرأ أيضاً: أهم الاستخدامات المحتملة لنموذج تشات جي بي تي في منتجات شركة مايكروسوفت

على الشركات التوقف الآن أو إجبارها من قبل الحكومات

وفقاً للعريضة التي لا تزال مفتوحة للتوقيع حتى الآن، فإن العديد من الشركات تشعر بضغوط تجارية مجنونة لإضافة تقنيات الذكاء الاصطناعي المتقدمة إلى منتجاتها، ومن ثَمَّ ستسمح فترة التوقف المؤقت المقدرة بستة أشهر على الأقل للصناعة بالتنفس دون الإضرار بالشركات التي تختار التحرك بحذر في إضافة الذكاء الاصطناعي إلى منتجاتها.

كما تنص العريضة على أنه يجب إعلان توقف علني يمكن التحقق منه، ويجب على جميع الجهات الفاعلة الرئيسية المشاركة فيها، وإذا لم يكن بالإمكان تفعيل مثل هذا التوقف بالسرعة اللازمة، على الحكومات التدخل وفرض التوقف بشكل إجباري.

ومع ذلك تدعو العريضة إلى أنه ليس بالضرورة أن تتوقف جميع عمليات تطوير الذكاء الاصطناعي، ولكن يجب على الشركات التوقف مؤقتاً عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة مثل نموذج الذكاء الاصطناعي التوليدي الجديد جي بي تي – 4 (GPT-4) الذي أصدرته شركة أوبن أيه آي في منتصف شهر مارس/ آذار، بالإضافة إلى أي جيل قادم، وذلك من أجل التركيز على جعل هذه الأنظمة أكثر دقة وأماناً وقابلية للتفسير وشفافية وقوية ومتسقة وجديرة بالثقة.

اقرأ أيضاً: ما هو «جي بي تي-4»؟ ولماذا قد يمثل علامة فارقة في تاريخ الذكاء الاصطناعي؟

 بالتوازي مع ذلك، تنص العريضة على أنه يجب على مطوري الذكاء الاصطناعي العمل مع صانعي السياسات لتسريع تطوير أنظمة حوكمة قوية للذكاء الاصطناعي، والتي يجب أن تشمل على الأقل ما يلي:

  • إنشاء سلطات تنظيمية قادرة مخصصة للذكاء الاصطناعي.
  • وجود سلطة إشرافية على أنظمة الذكاء الاصطناعي القوي وتتبعها.
  • تعزيز أنظمة المصدر والعلامات المائية للمساعدة على التمييز بين الحقيقي والتركيبي ولتتبع تسربات النماذج.
  • أهمية وجود نظام بيئي قوي للتدقيق وإصدار الشهادات.
  • تعزيز سلطات المسؤولية عن الضرر الناجم عن الذكاء الاصطناعي.
  • ضرورة وجود تمويل عام قوي لأبحاث السلامة التقنية للذكاء الاصطناعي.
  • أهمية وجود مؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الدراماتيكية (خاصة الديمقراطية) التي سيحدثها الذكاء الاصطناعي.