لقد كان تسارع نهضة الذكاء الاصطناعي خلال العقود القليلة الماضية من مجرد حلم مستحيل إلى واقع حقيقي أمراً مذهلاً. فلطالما كانت برامج الذكاء الاصطناعي تحتل مرتبة البطولة في الشطرنج ومسابقات جيوباردي (Jeopardy!)، ولكنها تمكنت أيضاً من اقتحام عالم البوكر والكلمات المتقاطعة ولعبة غو، بل وحتى تطوي البروتينات. وتمثل برامج الذكاء الاصطناعي المحرك الدافع لمواقع التواصل الاجتماعي والفيديو والبحث، والتي نستخدمها جميعاً كل يوم. ومؤخراً، حققت قفزة إلى مجال كنا نظن الحواسيب عاجزة عن الدخول فيه: الإبداع الفني.
صعود مدوي وتحذيرات مقابلة
ونظراً لهذا الصعود المدوي، فليس من المفاجئ أن نسمع تحذيرات متواصلة حول مستقبل كئيب ومظلم للبشرية بشكل مشابه لأحداث أفلام ترمينيتور (Terminator)، حيث تقوم أنظمة الذكاء الاصطناعي خارقة الذكاء بتدمير البشرية بعد أن تخطئ في إطلاق عنانها بأيديها. ولكن، وإذا تجاوزنا العناوين الصحافية اللافتة للنظر، فسوف ندرك أن الخطر الحقيقي لا يكمن في مدى ذكاء أنظمة الذكاء الاصطناعي. بل إنه يكمن حقيقةً في مدى افتقارها إلى العقل، ومدى تجذر أوهامنا حول ما يسمى بذكاء هذه الأنظمة.
ففي الصيف المنصرم، ادعى أحد مهندسي جوجل (Google) أن أحدث بوتات الدردشة لدى الشركة كائن عاقل لأنه (حسب قول المهندس) أخبره بذلك. ويستطيع بوت الدردشة هذا، وهو شبيه ببوت دردشة أطلقته الشركة الأم لفيسبوك (Facebook) مؤخراً للعلن، أن يعطيك انطباعاً حقيقياً بأنك تتحدث فعلاً إلى كائن عاقل وقادم من المستقبل. ولكنه مجرد وهم، فهذا البرنامج ليس سوى آلة حاسبة تختار الكلمات بصورة شبه عشوائية اعتماداً على أنماط إحصائية من نصوص مأخوذة من الإنترنت وتم تدريبها عليها. وليس لدى هذا البرنامج أي استيعاب للكلمات التي ينتجها، وليس لديه أي أفكار أو مشاعر. في الواقع، إنه أقرب إلى نسخة أكثر تطوراً من ميزة الإكمال التلقائي الموجودة على هاتفك.
لقد تطورت بوتات الدردشة إلى درجة كبيرة منذ أولى المحاولات البدائية في الستينيات، ولكنها لم تصبح أقرب إلى التفكير بنفسها مما كانت عليه في تلك الفترة. وبالتالي، فإن احتمال قيام بوتات الدردشة بإطلاق ثورة ناجمة عن إرادة حرة معدومة تماماً، فكل ما تقوم به هو تحويل التعليمات النصية إلى احتمالات، ومن ثم تحول هذه الاحتمالات إلى كلمات. ولن تقوم النسخ المستقبلية من أنظمة الذكاء الاصطناعي هذه باتخاذ قرار بإبادة الجنس البشري، بل ستتسبب بمقتل الناس عندما نرتكب (نحن البشر) حماقة بوضعها في مواضع ذات نفوذ لا يتناسب مع غبائها، مثل تقديم النصائح الطبية أو الإشراف على الخط الساخن للوقاية من الانتحار.
اقرأ أيضاً: حان الوقت لإعادة النظر في المعاملة القانونية للروبوتات
الخوارزميات تقرأ بياناتك لا أفكارك
لطالما قيل إن خوارزمية تيك توك (TikTok) تقرأ ما يجول في خاطرك. ولكنها لا تقرأ أفكارك، بل تقرأ بياناتك. فمنصة تيك توك تعثر على المستخدمين الذين يمتلكون سجلات مشاهدة مماثلة لسجلك، وتختار لك مقاطع الفيديو التي شاهدوها وتفاعلوا معها إيجاباً. إنها طريقة مثيرة للإعجاب، ولكنها مجرد حيلة إحصائية. وبنفس الطريقة، فإن أنظمة الذكاء الاصطناعي في فيسبوك (Facebook) وإنستغرام (Instagram) وتويتر (Twitter) لا تدرك ما هي المعلومات الصحيحة، وما هي المنشورات الجيدة لصحتك العقلية، وما هو المحتوى الذي يساعد على ازدهار الديمقراطية، وكل ما تعرفه هو ما قمتَ به أنت وغيرك على المنصة في الماضي، وتستخدم هذه البيانات للتنبؤ بما ستفعلونه على المنصة في المستقبل على الأرجح.
لا داعي للقلق بشأن محاولات استعبادنا من قبل أنظمة الذكاء الاصطناعي خارقة الذكاء، بل يجب أن نقلق حول مدى جهل وفساد أنظمة الذكاء الاصطناعي المصممة لاعتصار كل فلس من عائدات الإعلانات على الإنترنت منا.
ويجب أن نقلق بشأن أجهزة الشرطة التي تعتقد، وبسذاجة، أن الذكاء الاصطناعي قادر على التنبؤ بالجرائم قبل أن تحدث، على حين أن كل ما تقوم به هو تعزيز الصور النمطية المسيئة للأقليات.
لا نزال بمأمن من أذى أنظمة الذكاء الاصطناعي
وفي الواقع، لا يستطيع أي نظام ذكاء اصطناعي أن يتسبب لنا بالأذى ما لم نقدم له الفرصة المباشرة للقيام بذلك، ولكن يبدو أننا مصممون على أن نضع أنظمة ذكاء اصطناعي غير مؤهّلة في مواقع مؤثرة لتتخذ قرارات تفوق قدراتها، حيث يمكن أن تتسبب لنا بالأذى بالفعل.
جزئياً، يُعزى ميلنا إلى إلصاق صفات الذكاء والاستقلال بأنظمة الذكاء الاصطناعي، وبدرجة أكبر بكثير مما تستحق، إلى كون آليات عملها الداخلية ما زالت عصية على الفهم إلى حد بعيد. فهي تتضمن الكثير من العمليات الرياضية، والتعليمات البرمجية، والمليارات من المعاملات. وبسبب هذا التعقيد، نُصاب بالعمى، وتملأ مخيلتنا هذا الفراغ بأكثر مما يستحق.
اقرأ أيضاً: مساعٍ دولية لوضع قوانين تنظّم استخدام الذكاء الاصطناعي
ففي عام 1770، تم بناء روبوت يلعب الشطرنج –أو ما يسمى "أوتوماتون"، بلغة ذلك العصر- وأمضى قرابة قرن كامل وهو يجوب العالم ويهزم الكثير من المتحدين الذين أصيبوا بالدهشة، بما في ذلك بعض المشاهير من أمثال نابليون وبنجامين فرانكلين. ولكن، تم كشف الخدعة في نهاية المطاف: فلم يكن هذا شكلاً أولياً متطوراً من أشكال الذكاء الاصطناعي، بل كان مجرد آلة تخفي لاعب شطرنج في صندوق، حيث يمكنه أن يتحكم بذراعين ميكانيكيتين. لقد كان الناس متلهفين بشدة لرؤية آلة ذكية، إلى درجة أنهم تجاهلوا التفسير الأكثر تفاهة (والأكثر وضوحاً، بعد مرور كل هذا الوقت)، وهو الاحتيال.
وعلى حين أن تكنولوجياتنا تقدمت بمراحل كثيرة منذ القرن الثامن عشر، فإن سلوكنا الرومانسي تجاهها لم يحرز أي تقدم. فما زلنا نرفض النظر داخل الصندوق، وبدلاً من ذلك نفضّل التصديق بأن السحر المتجسد في هيئة ذكاء خارق بدأ يتحقق فعلاً، أو أنه قاب قوسين أو أدنى من ذلك. إن هذا التشوق الخيالي يشغلنا عن الأخطار الحقيقية التي يمكن أن يتسبب بها الذكاء الاصطناعي عندما نعتقد خطأً أنه أكثر ذكاء مما هو عليه. وإذا أخذنا السنوات الـ250 بعين الاعتبار، لوجدنا أن هذا هو الخطر الحقيقي الذي سيبقى ماثلاً في المستقبل.
وكما تجاهل الناس في القرنين الثامن عشر والتاسع عشر الحقيقة التافهة لذلك الأوتوماتون الذي يلعب الشطرنج، فإن الناس في الوقت الحالي يتجاهلون طريقة تافهة ولكنها فعّالة لحماية أنفسنا في المستقبل من أنظمة الذكاء الاصطناعي المتفلتة. علينا أن نوسّع جهود محو الأمية في الذكاء الاصطناعي في المدارس وبين العامة، بحيث يصبح الناس أقل عرضة لأوهام عظمة الذكاء الاصطناعي التي يروج لها عشاق المستقبل والشركات التكنولوجية التي تعتمد أرباحها على إقناعك بأن الذكاء الاصطناعي يمتلك قدرات أكبر من قدراته الحقيقية.