لطالما كان الإنسان هو أذكى الكائنات على الأرض، الأمر الذي أتاح له الهيمنة منفرداً على باقي المخلوقات. لكن التطورات السريعة التي شهدها الذكاء الاصطناعي خلال الأعوام الماضية، والحديث عن محاولات الوصول إلى "ذكاء اصطناعي عام"، تثير أفكاراً "ديستوبية" حول ما إذا كان الاستمرار في هذا المسار التطوري سيخلق منافساً لنا في الذكاء، وسيجعل الذكاء الاصطناعي خطراً وجودياً على البشر في نهاية المطاف.
خوف من لحظة التفرد التكنولوجي
في مقابلة أجراها مع صحيفة "نيويورك تايمز" الأميركية العام الماضي، عبر الملياردير إيلون ماسك عن اعتقاده بأن الذكاء الاصطناعي سيتفوق على البشر خلال أقل من خمس سنوات، معتبراً أن الأشخاص الأذكياء جداً مغرورون باعتقادهم أن الحاسوب لن يصبح ذكياً مثلهم.
لم تكن هذه هي المرة الأولى التي يقدم فيها ماسك تنبؤات مخيفة حول إمكانات الذكاء الاصطناعي، فقد حذر الجمهور في مؤتمر (ساوث باي ساوث واست) عام 2018، قائلاً: "أنا حقاً قريب جداً... من أحدث التقنيات في مجال الذكاء الاصطناعي، وهذا يخيفني بشدة. إنها قادرة على تحقيق أكثر بكثير مما يعرفه أي شخص تقريباً، ومعدل التحسن هائل".
حديث ماسك حول لحظة التفرد التكنولوجي (Technological singularity) التي سيتجاوز فيها الذكاء الاصطناعي كل الذكاء البشري ليس جديداً في الواقع، بل سبقه إليه الكثير من العلماء ورواد التكنولوجيا مثل ستيفن هوكنج وبيل جيتس، الذين حذروا من إمكانية الوصول إلى هذه النقطة المحفوفة بالمخاطر.
وتختلف تقديرات العلماء للتوقيت والكيفية التي قد يُحدث من خلالها الذكاء الاصطناعي تأثيرات سلبية محتملة على البشر، لكن أبرز المخاطر التي يرى الباحثون أننا ينبغي أن نركز عليها هي:
تزييف الحقائق والتحكم في عملية صنع القرار
تتيح تقنية التزييف العميق صنع فيديوهات مزيفة بالاعتماد على التعلم الآلي، عبر دمج مجموعة صور ومقاطع فيديو وتسجيلات صوتية لشخص معين، لإنتاج مقطع فيديو جديد يقول فيه الشخص كلاماً غير حقيقي أو يقوم بتصرفات لم يقم بها في الواقع.
وتخلق المواد عميقة التزييف خطراً مزدوجاً: خداع المشاهدين للاعتقاد بأن التصريحات أو الأحداث الملفقة حقيقية، وتقويض ثقة الجمهور في مصادر المعلومات الموثوقة.
علاوة على ذلك، يمكن لأدوات الذكاء الاصطناعي المتطورة -مثل النماذج اللغوية الكبيرة- أن تزيد من تفاقم هذه المشكلات وأن تقدم خطاباً مثير للانقسام ومعلومات مضللة. وقد أنتج نموذج جي بي تي 3 (GPT-3) قبل ذلك فعلاً نصوصاً عنصرية ومتحيزة جنسياً؛ لأنه كان يتعلم من محتوى الإنترنت الذي تم تدريبه عليه.
أما فيما يتعلق بمخاطر الذكاء الاصطناعي على عملية صنع القرار، فتشير دراسة أعدها مركز مؤسسة راند (RAND) للأمن والمخاطر العالمية إلى أننا تحولنا خلال بضعة عقود فقط من مجتمع يعتمد على الآلات إلى مجتمع يعتمد على المعلومات. وتدريجياً، باتت النظم الخوارزمية جزءاً لا يتجزأ من عمليات صنع القرار. وقد ترافق هذا الأمر مع "ميل البشر نحو التحيز للأتمتة"، بمعنى أن الناس يميلون عموماً لإسناد المزيد من المصداقية للنتائج والقرارات التي تتخذها أدوات الذكاء الاصطناعي، دون الأخذ في الحسبان مخاطر التحيز والأخطاء الكامنة في تلك الأدوات.
وفي الآونة الأخيرة زادت حالات الكشف عن عمليات "تحيز مؤتمت" ترتكبها العديد من أنظمة الذكاء الاصطناعي. ونكتفي هنا بمثال واحد يوضح أن الخوارزميات يمكن أن تُظهر جوانب "عنصرية" عند صنع قراراتها. فقد توصلت دراسة نشرتها دورية الطب الباطني العام، في أكتوبر الماضي، إلى أن إحدى الخوارزميات المستخدمة في تقييم وظائف الكُلَى في مدينة بوسطن الأميركية كانت ترفض وضع المرضى السود على قوائم انتظار عمليات زراعة الكُلَى؛ ببساطة لأنها كانت تأخذ معامل العرق في الاعتبار عند تقييم المرضى.
قد يهمك أيضاً:
فقدان الوظائف بسبب الأتمتة
ثاني المخاطر التي قد يمثلها الذكاء الاصطناعي على البشر هي الاستيلاء على وظائفهم. ويُنظر إلى أتمتة الوظائف بشكل عام على أنها الشاغل الأكثر إلحاحاً على المدى القريب؛ إذ يتوقع تقرير صادر عن شركة برايس ووترهاوس كوبرز (PwC) أنه بحلول منتصف ثلاثينيات القرن الحالي قد تتحول ثلث الوظائف إلى الأتمتة. وعلى نفس المنوال، قدرت منظمة التعاون الاقتصادي والتنمية (OECD) أن 14٪ من الوظائف معرضة بدرجة عالية لخطر الأتمتة. وذلك على الرغم من أن أحدث تقرير أصدرته المنظمة عام 2021 يشير إلى أن أعداد العمالة نمت في جميع دول المنظمة تقريباً خلال الفترة (2012-2019).
بيد أن المخاوف الفطرية من الأتمتة ليست جديدة تماماً، بل يتمتع البشر بتاريخ حافل من التوقعات الخاطئة حول تأثير الأتمتة السيئ على الوظائف. ولعل أحد أول وأبرز الأمثلة التاريخية على ذلك هو ما حدث عندما اخترع ويليام لي، المقيم في نوتنجهام بإنجلترا، عام 1589، آلة حياكة لإنتاج الجوارب، التي اعتُبِرت طفرةً حينها في ميكنة صناعة النسيج قبل الثورة الصناعية. لكن الملكة إليزابيث الأولى رفضت منح براءة اختراع للآلة خوفاً من تأثيرها على صناعة الحياكة اليدوية في بلادها. ومع ذلك، فقد وفرت الثورة الصناعية بعد ذلك بقرنين فرص عمل هائلة في بريطانيا.
وفي الوطن العربي، هناك حادثة شهيرة وقعت في مصر ظهر فيها الخوف من سيطرة الآلة على أعمال البشر؛ ففي فبراير من عام 1942 شهدت القاهرة مظاهرة حاشدة شارك فيها أصحاب العربات التي تجرها الدواب -والتي كانت وسيلة المواصلات الرئيسية آنذاك- أمام منزل رئيس مجلس الوزراء سعد زغلول؛ اعتراضاً على انتشار سيارات التاكسي في شوارع القاهرة، التي توقعوا أنها ستقضى على أعداد كبيرة من الوظائف المباشرة وغير المباشرة المرتبطة بصناعة النقل المعتمد على الحيوانات. ومع ذلك، سرعان ما اتضح أن انتشار السيارات (الآلات) في الشوارع وفر وظائف مختلفة لمئات الآلاف من الأشخاص.
في المقابل، وعلى غرار ما حدث في مثالي الثورة الصناعية والعربات التي تجرها الدواب، تتوقع العديد من التقديرات أن يخلق الذكاء الاصطناعي المزيد من الوظائف خلال السنوات القليلة المقبلة، أكثر من تلك التي سنفقدها بسبب الأتمتة.
وبحسب تقرير أصدره المنتدى الاقتصادي العالمي، فإن معظم فرص العمل الجديدة ستتركز حول الهندسة والحوسبة السحابية وتطوير المنتجات، وبالتالي فإن غالبيتها لن يكون مناسباً إلا للمتخصصين وذوي المهارات التدريبية والتعليمية العالية ممن يمكنهم التعامل مع التطورات التكنولوجية، لكنه قد يضر القوى العاملة اليدوية بشكل كبير.
خروج الذكاء الاصطناعي عن السيطرة
أول ما يدور في الأذهان عند الحديث عن مخاطر الذكاء الاصطناعي العام هو سيناريو وصول الآلات إلى مستويات ذكاء تفوق الإنسان لدرجة تمكنها من اتخاذ قراراتها بشكل مستقل، دون العودة إلى البشر في أي مرحلة. ربما يكون السبب في تلك النظرة عدم الفهم الدقيق لكيفية عمل الذكاء الاصطناعي أو بسبب القصص الأدبية والأفلام التي كثيراً ما تحدثت عن هذا السيناريو.
وعلى الرغم من أن هذا الأمر قد يكون أقرب إلى الخيال العلمي منه إلى الواقع، إلا أن ثمة حالات خرج فيها الذكاء الاصطناعي فعلاً بشكل ما عن السيطرة؛ ففي عام 2017، أوقفت شركة فيسبوك تجربة ذكاء اصطناعي بعدما طور اثنان من روبوتات الدردشة لغة غريبة لا يفهمها سواهما. وهو ما فعلته أيضاً أنظمة ذكاء اصطناعي طورتها شركة جوجل في نفس العام.
ومع ذلك، يتفق معظم الباحثين على أنه من غير المرجح أن يظهر الذكاء الاصطناعي الخارق المشاعر البشرية مثل الحب أو الكراهية، وأنه لا يوجد سبب لتوقع أن يصبح الذكاء الاصطناعي خيراً أو خبيثاً عن عمد. وبدلاً من ذلك، يعتقد الخبراء في معهد مستقبل الحياة -الذي يضم في عضويته الكثير من العلماء والمفكرين البارزين ومنهم ماسك وهوكنج- أن هناك سيناريوهين مرجحين لأنْ يمثل الذكاء الاصطناعي خطراً وجودياً علينا:
- أن يكون الذكاء الاصطناعي مبرمجاً للقيام بشيء مدمر: كما يمكن أن يحدث في حالة سباق تسلح بالذكاء الاصطناعي، تسفر بشكل غير مقصود عن حرب ذكاء اصطناعي.
- أن يكون الذكاء الاصطناعي مبرمجاً للقيام بشيء مفيد لكنه يطور طريقة مدمرة لتحقيق هدفه: كما قد يحدث مثلاً إذا تم تكليف نظام فائق الذكاء بمشروع هندسة جيولوجية طموح، فقد يُحدث دماراً في نظامنا البيئي كأثر جانبي، وقد ينظر إلى المحاولات البشرية لإيقافه على أنها تهديد يجب مواجهته.
وبالتالي، فالخطورة لا تكمن في رغبة الذكاء الاصطناعي المحتملة في الإضرار بالبشر، وإنما في أنه على الأرجح سيكون جيداً جداً في تحقيق أهدافه التي ربما لن تكون نفس أهدافنا.
مخاوف مبالغ فيها
في الوقت الحالي، قد لا تكون الإجابة عن السؤال الذي تطرحه المقالة واضحة بالدرجة الكافية، لا سيما وأن هناك آراء لها ثقلها في مجال الذكاء الاصطناعي ترى أن هذه المخاوف تنطوي على مبالغة. فمثلاً، يُشّبه أندرو إنج، الأستاذ المساعد في جامعة ستانفورد ومؤسس فريق جوجل برين (Google Brain)، المخاوف من ظهور روبوتات قاتلة في المستقبل القريب بالمخاوف المتعلقة بالزيادة السكانية على كوكب المريخ.
وفي النهاية، ربما نحن نبحث فقط عن وسائل أمان لنُطَمئن أنفسنا بأن الذكاء الاصطناعي سيظل تحت سيطرتنا إلى الأبد، لكن الشئ المؤكد -وأتمنى ألا يسعى الذكاء الاصطناعي ورائي يوماً ما بسبب قولي هذا- أن الخطورة الحقيقية تكمن في أن نثق أكثر من اللازم في الأنظمة الذكية.
اقرأ أيضا: