هل نحن أمام مخاطر وجودية فعلاً من الذكاء الاصطناعي؟

8 دقائق
هل نحن أمام مخاطر وجودية فعلاً من الذكاء الاصطناعي؟
مصدر الصورة: ستيفاني آرنيت/ إم أي تي تي آر | غيتي

مَن يخشى من البوتات الشريرة؟ يبدو أن ثمة الكثيرين ممن يخشونها. يكفي أن ننظر إلى عدد الشخصيات الشهيرة التي أعلنت أمام الجميع عن مخاوفها تجاه الأخطار الكارثية للذكاء الاصطناعي، أو التي وقّعت رسائل مفتوحة تحذر من هذه الأخطار، حتى نصاب بالذهول.

لقد تحدث المئات من العلماء وقادة الشركات وصنّاع السياسات عن هذه المسألة علناً، بدءاً من رائدي التعلم العميق جيفري هينتون ويوشوا بينغيو، وصولاً إلى الرؤساء التنفيذيين لكبرى شركات الذكاء الاصطناعي، مثل سام ألتمان وديميس هاسابيس، إضافة إلى ممثل ولاية كاليفورنيا في الكونغرس، تيد ليو، والرئيسة السابقة لإستونيا، كيرتسي كاليولايد.

أصدر مركز أمان الذكاء الاصطناعي (اختصاراً: كايس CAIS) -وهو مؤسسة بحثية في مدينة سان فرانسيسكو لتفعيل الأجندات ودفعها- أكثر الوثائق المتعلقة بهذا الموضوع جدية وقسوة، على شكل بيان مؤلف من 22 كلمة وقّع عليه جميع المذكورين آنفاً إضافة إلى عدد كبير من الشخصيات الأخرى. ويقول هذا البيان: "يجب أن يكون التخفيف من وطأة خطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".

تحمل هذه الصياغة معنى محدداً وواضحاً بصورة متعمدة. يقول مدير كايس، دان هيندريكس: "لو أردنا صياغة بيان بأسلوب غير مباشر يعتمد على التشبيه، لاستخدمنا تعبير "خطر وجودي" لأن معناه يختلف باختلاف المتلقي". لكن الموقعين أرادوا إيصال رسالة واضحة، وهي أن البيان لا يتحدث عن انهيار الاقتصاد. يقول هيندريكس: "ولهذا، استخدمنا تعبير "خطر الانقراض" على الرغم من أن الكثيرين منا يشعرون بالقلق بسبب مخاطر أخرى أيضاً".

اقرأ أيضاً: جوزيف عتيق مبتكر تكنولوجيا التعرف على الوجوه يتحدث عن ابتكاره ومخاوفه منه

ضجيج إعلامي

لقد شهدنا هذا النمط من قبل؛ فقد بدأ الذكاء الاصطناعي يثير المخاوف بعدما شهدناه من إثارة للضجيج الإعلامي والكثير من الحماسة. لكن هذه المرة تبدو مختلفة. فقد تغيرت المفاهيم والأفكار المقبولة في الخطاب العام (أو ما يُعرف بنافذة أوفرتون). وأصبحت الأفكار التي كانت متطرفة نقاط حوار واسعة الانتشار، ولم تعد تظهر في العناوين الصحفية فحسب، بل أصبحت محطَّ انتباه قادة العالم أيضاً. تقول مديرة الأبحاث في مؤسسة داتا أند سوسايتي (البيانات والمجتمع) التي تدرس الآثار الاجتماعية للتكنولوجيا، جينا بوريل: "لقد تضخمت مجموعة الأصوات التي تتحدث عن المخاوف المتعلقة بالذكاء الاصطناعي، وأصبحت ببساطة عالية جداً إلى درجة تجعل تجاهلها مستحيلاً".

ماذا يحدث؟ هل أصبح الذكاء الاصطناعي "أكثر" خطورة حقاً؟ ولماذا أصبح الناس الذين أسهموا في إطلاق هذه التكنولوجيا في مقدمة الذين يقرعون ناقوس الخطر؟

من المؤكد أن وجهات النظر هذه أدت إلى حدوث انقسام في هذا المجال. فمنذ فترة وجيزة، قال كبير العلماء في ميتا الذي تقاسم جائزة تورينغ لعام 2018 مع هينتون وبينغيو، يان ليكون، إن هذا الخوف من الانقراض والفناء "غير معقول". وقال الرئيس التنفيذي لشركة الذكاء الاصطناعي كوهير (Cohere)، أيدن غوميز، إن هذه المسألة "مضيعة سخيفة لوقتنا".

وقد انضم آخرون إلى هذا الموقف الساخر. تقول رئيسة شركة سيغنال (Signal)، والمديرة السابقة لمعهد أيه آي ناو (AI Now) –وهو مختبر بحثي يدرس آثار الذكاء الاصطناعي المترتبة على صعيدي المجتمع والسياسات- وإحدى مؤسسيه، ميريديث ويتاكر: "لا يوجد دليل على المخاطر الوجودية للذكاء الاصطناعي في الوقت الحالي أكثر مما كان عليه الأمر في 1950. قصص الرعب سريعة الانتشار، فالخوف مصدر رائع للإثارة والتشويق". وهو أيضاً طريقة تتيح تجاهل كل ما يحدث في الوقت الحالي، ويشير إلى أننا لم نشهد ضرراً حقيقياً أو خطيراً حتى الآن".

اقرأ أيضاً: أداة جديدة لتحسين دقة الصور تعزز المخاوف المرتبطة بنتائج عمل خوارزميات الذكاء الاصطناعي

مخاوف قديمة

لقد ظهرت المخاوف المتعلقة بالآلات الخارجة عن السيطرة والقادرة على تحسين نفسها منذ أيام ألان تورينغ. وأصبحت هذه الأفكار واسعة الانتشار بفضل علماء المستقبليات مثل فيرنور فينج وراي كورزويل، الذين تحدثوا عما يسمى "التفرّد" (Singularity)، وهو تاريخ افتراضي يفوق فيه الذكاء الاصطناعي قدرات الذكاء البشري، وتفرض الآلات سيطرتها على العالم.

ولكن، في صميم هذه المخاوف، يكمن السؤال الجوهري: كيف يمكن للبشر أن يحافظوا على تفوقهم إذا أصبحت (أو عندما تصبح) الآلات أكثر ذكاء؟ في ورقة بحثية منشورة في 2017 بعنوان: "كيف يمثل الذكاء الاصطناعي خطراً وجودياً" (How Does Artificial Intelligence Pose an Existential Risk?)، وضّحت فيلسوفة الذكاء الاصطناعي في جامعة تورونتو (وإحدى الموقّعين على بيان كايس)، كارينا فولد، الحجة الأساسية التي ترتكز عليها هذه المخاوف.

ثمة ثلاث فرضيات رئيسية. تتلخص الفرضية الأولى بأنه من الممكن للبشر أن يتمكنوا من بناء آلة خارقة الذكاء وقادرة على التفوق على جميع الآلات الذكية. أما الفرضية الثانية فهي أننا لن نتمكن من التحكم في ذكاء خارق قادر على التفوق علينا. وتقول الفرضية الثالثة بأنه من الممكن للذكاء الخارق أن يقدِم على فعل أشياء لا نريده أن يفعلها.

وبجمع الفرضيات الثلاث معاً، يصبح من الممكن أن نبني آلة تقدِم على فعل أشياء لا نريدها أن تفعلها -وصولاً إلى القضاء علينا- ولن نتمكن من إيقافها.

هذه هي الاحتمالات الثلاثة لهذا السيناريو. عندما تحدث هينتون عن مخاوفه المتعلقة بالذكاء الاصطناعي في مايو/ أيار، قدَّم مثالاً عن روبوتات تغير توجيه انتقال التيار في شبكة الطاقة الكهربائية حتى تمنح نفسها المزيد من الطاقة. ولكن الذكاء الخارق (أو الذكاء الاصطناعي العام "AGI") ليس ضرورياً. فمن الممكن للآلات الغبية أن تتسبب بالكوارث إذا مُنِحت قدراً هائلاً من حرية التصرف. ويعتمد الكثير من السيناريوهات المتوقعة على استخدام غير مدروس أو خبيث بدلاً من البوتات التي تعمل لمصلحتها بصورة متعمدة.

اقرأ أيضاً: هل علينا تغيير مصطلح “الذكاء الاصطناعي” لإزالة المخاوف المرتبطة به؟

هل هي مخاطر فعلاً أم مجرد حماسة للأساطير؟

ففي بحث نُشِر على الإنترنت مؤخراً، قدم باحثا الذكاء الاصطناعي في جامعة بيركلي (وهما أيضاً من الموقعين على بيان كايس)، ستيوارت راسل وآندرو كريتش، تصنيفاً للمخاطر الوجودية. وتتراوح هذه المخاطر بين بوتات دردشة واسعة الانتشار التي تعطي النصائح للملايين من البشر بالتوقف عن الدراسة في الجامعة، وصولاً إلى صناعات مستقلة تعمل على تحقيق أهدافها الاقتصادية المؤذية، ودول تبني أسلحة خارقة تعمل بالذكاء الاصطناعي.

في الكثير من الحالات الافتراضية، يحقق النموذج النظري الهدف الذي صممه البشر لتحقيقه، ولكن بطريقة تعاكس مصالح البشر. وبالنسبة لهيندريكس الذي درس كيف يمكن لنماذج التعلم العميق في بعض الأحيان أن تتصرف بطرق غير متوقعة وغير مرغوبة عندما تُلَقم بمدخلات غير موجودة في بياناتها التدريبية، يمكن لنظام الذكاء الاصطناعي أن يتسبب بكارثة إذا كان معطلاً بدلاً من أن يكون ذا قدرات خارقة. ويقول: "إذا حددت لنظام الذكاء الاصطناعي هدفاً وتمكن من اكتشاف حلول غريبة لتحقيق هذا الهدف، فسوف تجد نفسك في موقف غريب وغير متوقع".

تكمن مشكلة هذه السيناريوهات المستقبلية في اعتمادها على سلسلة من الفرضيات، ما يجعلها تبدو أقرب إلى الخيال العلمي. وتعترف فولد بنفسها بهذا الأمر. وكتبت قائلة: "بما أن الأحداث التي تؤدي إلى خطر وجودي أو تسهم في إيجاده هي أحداث غير مسبوقة، فإن الحجج التي تقول إنها تمثل خطراً داهماً إلى هذه الدرجة يجب أن تكون حججاً نظرية بطبيعتها. ونظراً لأن حدوثها مستبعد، فإن محاولة التكهن بكيفية حدوثها أو بموعده هي مسألة غير موضوعية، ولا يمكن التحقق منها تجريبياً".

إذاً، لماذا يتقبّل المزيد من الناس هذه الأفكار دون إثبات، وبصورة غير مسبوقة؟ يقول باحث الذكاء الاصطناعي في جوجل، فرانسوا شوليه: "يتحدث الناس عن هذا الخطر لأسباب مختلفة، ومن المحتمل أنهم يقصدون به أشياء مختلفة". ولكن، من ناحية أخرى، فإنها رواية جذابة تصعب مقاومتها: "لطالما كان الخطر الوجودي قصة جيدة.

وثمة الكثير من العناصر التي لا يمكن إهمالها لأنها تحمل طابعاً أسطورياً، بل ويكاد يكون روحانياً"، وفقاً لويتاكر. وتكمل قائلة: "أعتقد أنه علينا الاعتراف بأن ما يوصف فعلياً -وفي ظل غياب أي دليل على وجوده- هو أقرب إلى الإيمان أو الحماسة الروحانية منه إلى نقاش علمي فعلي".

اقرأ أيضاً: خمس نتائج عالمية مهمة لقانون الذكاء الاصطناعي في أوروبا

عدوى الفناء

عندما بدأ باحثو التعلم العميق يحققون الإنجازات المتلاحقة -مثل تحطيم هينتون وزملائه للأرقام القياسية في نتائج التعرف على الصور في مسابقة إيماج نت في 2012، وأول انتصارات ديب مايند ضد أبطال بشريين باستخدام برنامج ألفا غو في 2015- سرعان ما تحول الضجيج الإعلامي إلى رعب من الفناء أيضاً. وانطلقت الإنذارات بشأن المخاطر الوجودية بأصوات بعض مشاهير العلماء، مثل ستيفن هوكينغ وزميله عالم الكونيات مارتن ريس، إضافة إلى مشاهير قادة مجال التكنولوجيا مثل إيلون ماسك. ولكن هذه الشخصيات لم تكن من خبراء الذكاء الاصطناعي.

منذ ثماني سنوات، كان آندرو إنغ، أحد رواد الذكاء الاصطناعي، يعمل كبيراً للعلماء في شركة بايدو (Baidu)، وفي ذلك الحين، وقف على منصة مسرح في مدينة سان خوسيه، وضحك ساخراً من الفكرة بأسرها. وقال إنغ للحضور في مؤتمر تكنولوجيات وحدات المعالجات الرسومية الذي نظمته شركة إنفيديا (Nvidia) في 2015: "قد يظهر صنف من الروبوتات القاتلة في المستقبل البعيد. ولكنني لن أشغل نفسي حالياً بمشكلة انتقال الذكاء الاصطناعي إلى جانب الشر، فهي مشكلة بعيدة للغاية وليس من المجدي التفكير فيها منذ الآن، شأنها شأن مشكلة التزايد السكاني للبشر على المريخ". (في ذلك الوقت، تولى موقع ذا ريجستر (The Rigester) المتخصص في أخبار التكنولوجيا مهمة تغطية خطاب إنغ إعلامياً).

أسهم إنغ في تأسيس مختبر الذكاء الاصطناعي في جوجل في 2011، وهو حالياً الرئيس التنفيذي لشركة لاندينغ أيه آي (Landing AI)، وقد كرر هذه العبارة عدة مرات في مقابلات لاحقة. لكنه أصبح الآن أقرب إلى الموقف الوسطي. وقد قال لي: "أنا منفتح على جميع وجهات النظر، وأتواصل مع البعض لمعرفة المزيد من المعلومات. فقد دفعت الوتيرة السريعة للتطور ببعض العلماء إلى إعادة النظر في هذه المخاطر".

يشعر إنغ بالقلق، على غرار الكثيرين، إزاء التقدم السريع للذكاء الاصطناعي التوليدي، واحتمالات إساءة استخدامه. ويشير إلى أن صورة الانفجار في البنتاغون المُوَلّدة بالذكاء الاصطناعي التي انتشرت على نطاق واسع، تسببت بالذعر منذ فترة وجيزة إلى درجة أنها أحدثت انخفاضاً في سوق الأسهم.

يقول إنغ: "أصبحت أنظمة الذكاء الاصطناعي فائقة القدرات، ولكن، يبدو من المحتمل أن هذا سيؤدي إلى مشاكل ضخمة أيضاً مع الأسف". لكنه ما يزال رافضاً لفكرة الروبوتات القاتلة، ويقول: "حالياً، ما زلت أجد صعوبة في تقبّل فكرة انقراضنا بسبب الذكاء الاصطناعي".

اقرأ أيضاً: أدوات ذكاء اصطناعي لتحسين اجتماعاتك الافتراضية على مختلف المنصات

انتشار الوعي حول قدرات الذكاء الاصطناعي

ثمة أمر جديد آخر، وهو انتشار الوعي حول قدرات الذكاء الاصطناعي. ففي وقت سابق من هذه السنة، أدى تشات جي بي تي إلى انتشار هذه التكنولوجيا بين العامة. يقول شوليه: "فجأة، أصبح الذكاء الاصطناعي أحد الموضوعات المفضلة لدى العامة. وبدأ الناس ينظرون إلى الذكاء الاصطناعي بجدية، لأنهم رأوا قدراته تحقق قفزة مفاجئة، ما يمثل نذيراً لتحقيق قفزات لاحقة في المستقبل".

يمكن لتجربة الحوار مع بوت دردشة أن تكون مثيرة للتوتر والاستغراب. فلطالما كان الحوار نشاطاً محصوراً ضمن البشر فقط. تقول ويتاكر: "أدت هذه التجربة الجديدة إلى إضفاء طابع واقعي على الفكرة التي تقول إن الذكاء الاصطناعي شبيه بالبشر، أو إنه محاور واعٍ. وأعتقد أنها أعطت دعماً للفكرة التي تقول إنه إذا تمكن الذكاء الاصطناعي من محاكاة التواصل البشري، فمن الممكن أن يتمكن من تحقيق أشياء أخرى أيضاً. هذا هو الأساس الذي يعتمد عليه الحوار حول الخطر الوجودي إلى حد ما، أي الاستقراء من دون أدلة فعلية".

ثمة سبب يدعو إلى السخرية أيضاً. فمع محاولة المشرعين مجاراة المجال التكنولوجي، أصبح موضوع الحوار الرئيسي تحديد أنواع النشاطات التي يجب تقييدها أو تركها دون قيود. إن التركيز على المخاطر البعيدة المدى بدلاً من الأضرار القصيرة المدى (مثل التمييز في التوظيف أو انتشار المعلومات المزيفة) سيؤدي إلى تحويل انتباه المشرعين لاحقاً نحو المشاكل الافتراضية.

تقول بوريل: "أعتقد أن التهديد بفرض قيود حقيقية دفع الناس إلى اتخاذ موقف حاسم". قد يؤدي التحدث عن المخاطر الوجودية إلى إثبات صحة مخاوف المشرعين دون تقويض فرص الأعمال. تقول بوريل: "قد يكون الذكاء الاصطناعي الخارق الذي ينقلب عدواً للبشرية شيئاً مرعباً، ولكنه أيضاً شيء لم يحدث من قبل دون شك".

يمكن لتضخيم المخاوف المتعلقة بالخطر الوجودي أن يكون مفيداً للأعمال بطرق أخرى أيضاً. ويشير شوليه إلى أن شركات الذكاء الاصطناعي الكبيرة تريدنا أن نعتقد أن الذكاء الاصطناعي الخارق مقبل لا محالة، وأنهم يعملون حالياً على بنائه. ويقول: "إذا أردت أن يعتقد الجميع بأنك تعمل على مشروع فائق الإمكانات، فإن إثارة خوفهم من هذا المشروع فكرة جيدة".

تتفق ويتاكر مع هذه الفكرة. وتقول: "يمكن أن تعزز صورتك ومكانتك لدى الآخرين بتقديم نفسك على أنك مبتكر لشيء يمكن أن يكون أكثر قدرة من البشر".

اقرأ أيضاً: 3 مخاطر حقيقية موثقة لاستخدام أنظمة الذكاء الاصطناعي

مخاطر ممكنة ومستحيلة!

لن يكون كل هذا مهماً إذا كانت المسألة مسألة تسويق أو ضجيج إعلامي فحسب. ولكن تحديد المخاطر الممكنة والمستحيلة قد يؤدي إلى عواقب حقيقية. ففي عالم يعاني نقصاً في الميزانيات وقدرة البشر على التركيز، قد تصبح الأخطار الأقل شدة من الحرب النووية طي النسيان، لأننا قررنا أنها لا تمثل أولوية تستحق الاهتمام.

تقول المديرة الإدارية لمعهد أيه آي ناو، سارة مايرز ويست: "إنه تساؤل مهم، خصوصاً مع تزايد التركيز على الأمن والأمان بصفتهما يمثلان إطاراً محدوداً للتدخل على مستوى السياسات العامة".

عندما التقى رئيس الوزراء البريطاني ريشي سوناك في مايو/ أيار برؤساء شركات الذكاء الاصطناعي، بمن فيهم سام ألتمان وديميس هاسابيس، أصدرت حكومته بياناً قالت فيه: "ناقش رئيس الوزراء والرؤساء التنفيذيون مخاطر التكنولوجيا، التي تتراوح بين المعلومات المزيفة والأمن القومي، وصولاً إلى التهديدات الوجودية".

وقبل ذلك بأسبوع، قال ألتمان لمجلس الشيوخ الأميركي إن أسوأ مخاوفه هي أن يتسبب مجال الذكاء الاصطناعي بأضرار كبيرة للعالم. وقد ساعدت شهادة ألتمان على إطلاق الدعوات لتأسيس نوع جديد من الوكالات للتعامل مع هذه الأضرار غير المسبوقة.

هل وقع الضرر مع تغير المفاهيم والأفكار المقبولة في الخطاب العام؟ تقول ويتاكر: "إذا كنا نتحدث عن المستقبل البعيد، وإذا كنا نتحدث عن مخاطر خرافية، فنحن نعيد تأطير المشكلة بالكامل لتصبح مشكلة تنتمي إلى عالم خيالي، ما يعني أن حلولها يمكن أن توجد في عالم خيالي أيضاً".

اقرأ أيضاً: هل هناك أشخاص يقرؤون محادثاتك مع بوتات الدردشة؟

ولكن ويتاكر تشير إلى أن النقاشات المتعلقة بالسياسات التي تدور حول الذكاء الاصطناعي كانت قد بدأت منذ سنوات، قبل فترة طويلة من هذا الضجيج الجديد حول المخاوف. وتقول: "لا أؤمن بوجود شيء حتمي ولا يمكن تفاديه. سنشهد مقاومة لهذا الضجيج الإعلامي، وسينتهي قريباً".

المحتوى محمي