الذكاء الاصطناعي يسير بسرعة كبيرة والعلماء يحذّرون من ثلاثة أخطاء يجب تجنبها

3 دقائق
الذكاء الاصطناعي يسير بسرعة كبيرة والعلماء يحذّرون من ثلاثة أخطاء يجب تجنبها
حقوق الصورة: shutterstock.com/Paper piper

مرت ستة أشهر منذ أن شارك معهد مستقبل الحياة (Future of Life Institute) (أو "فلاي" (FLI) اختصاراً) وهو مؤسسة لا ربحية تركز على المخاطر الوجودية للذكاء الاصطناعي رسالة مفتوحة وقعها الكثير من المشاهير، مثل إيلون ماسك وستيف ووزنياك ويوشوا بينجيو. دعت الرسالة الشركات التكنولوجية إلى "الإيقاف المؤقت" لتطوير نماذج الذكاء الاصطناعي اللغوية الأعلى مستوى من جي بي تي 4 (GPT-4) لشركة أوبن أيه آي (OpenAI) مدة ستة أشهر.

من الواضح أن هذا لم يحدث.

خضتُ حواراً مع الأستاذ في معهد ماساتشوستس للتكنولوجيا (إم آي تي)، ماكس تيغمارك، وهو مؤسس ورئيس فلاي، للاطلاع على ما حدث منذ ذلك الحين. وإليكم فيما يلي أبرز النقاط التي وردت في حوارنا:

مجموعة الأفكار المقبولة في المجتمع

فيما يتعلق بالنقلة في نافذة أوفرتون (مجموعة الأفكار المقبولة في المجتمع) حول مخاطر الذكاء الاصطناعي: أخبرني تيغمارك إن أحد الحوارات مع مجموعة من باحثي الذكاء الاصطناعي والرؤساء التنفيذيين للشركات التكنولوجية كشف له، وبوضوح، عن وجود مستوى عالٍ من القلق حول الخطر الوجودي الذي يمثله الذكاء الاصطناعي، غير أن أحداً لم يشعر بأنه قادر على التحدث عن هذه المسألة جهارةً "بسبب الخوف من التعرض للسخرية بوصفه متخلفاً ومتاجراً بالمخاوف"، ويقول: "كان الهدف الرئيسي من هذه الرسالة نقل هذا الحوار إلى المستوى العلني، وإحداث تغيير في الأفكار المقبولة مجتمعياً بحيث يشعر الجميع بالأمان عند تعبيرهم عن هذه المخاوف". ويضيف قائلاً: "بعد ستة أشهر، من الواضح أننا حققنا النجاح في هذه الجزئية".

لكن النجاح توقف عند هذا الحد: "ما لا يدعو إلى السرور هو أن جميع الشركات ما زالت مندفعة في العمل والتطوير بكامل طاقتها، وأننا ما زلنا نفتقر إلى أي تنظيم فعلي للذكاء الاصطناعي في الولايات المتحدة. ويبدو أن صانعي السياسات الأميركيين، على الرغم من كل تصريحاتهم، لن يقرّوا هذه السنة أي قانون يفرض قيوداً فعلية على أخطر أنظمة الذكاء الاصطناعي".

اقرأ أيضاً: الوجه الآخر للذكاء الاصطناعي التوليدي: تقرير من شركة سعودية عن مخاطر الذكاء الاصطناعي

ضرورة تدخل الحكومات في تنظيم الذكاء الاصطناعي

لماذا يجب على الحكومات أن تتدخل: يسعى تيغمارك إلى دفع الحكومة لتأسيس وكالة على غرار الإدارة الأميركية للغذاء والدواء، وذلك لفرض تطبيق القوانين والقواعد المتعلقة بالذكاء الاصطناعي، كما يسعى لدفع الحكومة إلى إرغام الشركات التكنولوجية على إيقاف تطوير الذكاء الاصطناعي مؤقتاً. "من الواضح أيضاً أن قادة مجال الذكاء الاصطناعي، مثل سام ألتمان وديميس هاسابيس وداريو أمودي، يشعرون هم أنفسهم بقلق شديد. لكنهم يعلمون جميعاً أنهم لا يستطيعون اتخاذ قرار إفرادي بإيقاف تطوير أنظمة الذكاء الاصطناعي مؤقتاً"، وفقاً لتيغمارك. ويضيف قائلاً إن قراراً كهذا "يمثل كارثة بالنسبة لشركاتهم، أليس كذلك؟ فسوف يؤدي ببساطة إلى تخلفهم عن المنافسين الآخرين، ما يعني الاستعاضة عن الرئيس التنفيذي الذي اتخذ هذا القرار بشخص آخر معارض لهذه الفكرة. إن الطريقة الوحيدة لإنجاح هذا الإيقاف المؤقت هي تدخل حكومات العالم وفرضها لمعايير السلامة التي تجبر الجميع على الإيقاف المؤقت للتطوير".

إذاً، ماذا عن إيلون؟ وقّع ماسك على الرسالة التي تدعو إلى الإيقاف المؤقت، لكنه أسس من ناحية أخرى شركة ذكاء اصطناعي جديدة باسم إكس أيه آي (X.AI) لبناء أنظمة ذكاء اصطناعي "تفهم الطبيعة الحقيقية للكون" (من الجدير بالذكر أن ماسك مستشار لفلاي). "من الواضح أن ماسك يدعم الإيقاف المؤقت، شأنه شأن الكثيرين من قادة مجال الذكاء الاصطناعي الآخرين. لكن، وفي ظل عدم وجود هذا الإيقاف المؤقت، فإنه يشعر أنه مضطر لمجاراة الآخرين والحفاظ على موقعه في هذا المجال".

اقرأ أيضاً: 3 مخاطر حقيقية موثقة لاستخدام أنظمة الذكاء الاصطناعي

ماذا عن المدراء التنفيذيين لشركات التكنولوجيا الكرى؟

لماذاُ يعتقد أن الرؤساء التنفيذيين للشركات التكنولوجية يفكرون في المصلحة العليا للبشرية: "ما الذي يدفعني إلى الاعتقاد بأنهم يرغبون حقاً في بناء مستقبل جيد مع الذكاء الاصطناعي، لا في مستقبل سيئ؟ أعرفهم منذ سنوات عديدة. وأتحدث معهم بصورة منتظمة. وأستطيع أن أؤكد هذا الأمر بناء على حواراتنا الخاصة، بل أستطيع حتى أن أحس به".

الرد على المنتقدين الذين يقولون إن التركيز على الخطر الوجودي يشتت انتباهنا عن المخاطر الحالية: "من المهم بالنسبة لمن يهتمون كثيراً بالمشاكل الحالية، ومن يهتمون بالمشاكل المستقبلية الوشيكة، أن يسود بينهم التعاون بدلاً من التنازع. ليس لدي أي انتقاد لمن يركزون على المخاطر الحالية. وأظن أن اهتمامهم بهذه المسألة أمر رائع. فأنا أعتقد أنها مهمة للغاية. وإذا انشغل الجميع بهذا الخلاف، فلن يؤدي هذا سوى إلى مساعدة الشركات التكنولوجية الكبرى على تطبيق منهج "فرّق تَسُد" على جميع الراغبين بحق في كبح جماح هذه الشركات".

اقرأ أيضاً: كيف يغير الذكاء الاصطناعي حياتنا في المنزل والعمل؟

الأخطاء الثلاثة التي يجب أن نتفاداها الآن، وفقاً لتيغمارك:

  1. إسناد مهمة صياغة القوانين إلى الشركات التكنولوجية.
  2. تحويل هذه المسألة إلى نزاع جيوسياسي بين الغرب والصين.
  3. التركيز فقط على الخطر الوجودي أو على الأحداث الحالية.

يجب أن ندرك أن جميع هذه المشاكل جزء من التهديد المتمثل في استضعاف البشر. ويجب أن نتحد جميعاً في مواجهة هذه التهديدات.

المحتوى محمي