ثمة مصطلح مهم للغاية يستخدمه المتخصصون في مجال الذكاء الاصطناعي هو Human In The Loop (HITL). عادة ما نترجم هذا المصطلح باللغة العربية إلى "التوجيه البشري للآلة" (وهي الترجمة الأدق من ناحية المعنى)، إلا أن معناه الحرفي هو "إنسان في الحلقة". قد لا يكون هذا المعنى الحرفي معروفاً إلى حد كبير، لكنه بشكل أو بآخر يلخص الفكرة الرئيسية لهذه المقالة: الدور الخفي للقوى العاملة البشرية خلف أنظمة الذكاء الاصطناعي البراقة.
الإنسان لا يزال في الحلقة
يشير مصطلح "التوجيه البشري للآلة" بشكل عام إلى نهج يجمع بين الذكاء الاصطناعي والذكاء البشري بهدف تحقيق نتيجة أفضل مما يمكن لأي منهما تحقيقه بشكل منفرد، وهو يعتمد على قيام الشخص بإضافة بيانات إلى النظام لتحقيق النتيجة المرجوة. وتتحول هذه العملية إلى حلقة مستمرة مع تدريب البشر للنموذج وتحسين عملية ضبطه واختباره، وتحديثه بعد نشره، فيصبح أكثر ذكاءً ودقة على المدى الطويل.
منذ إطلاق بوت "تشات جي بي تي"، نهاية نوفمبر/ تشرين الثاني الماضي، تزايدت الأسئلة المتعلقة بمدى إمكانية استحواذ الآلات على وظائف البشر، والمدى الزمني الذي سيحدث فيه ذلك. وسرعان ما تعززت هذه النظرة بسبب الانتشار المفاجئ لمقاطع فيديو تظهر سلاسل مطاعم كبرى في الولايات المتحدة، مثل ماكدونالدز، "مؤتمتة بالكامل".
اقرأ أيضاً:ميتا تنافس تشات جي بي تي بنموذج ذكاء اصطناعي يتحدث 20 لغة
بيد أن الكاتبة ومقدمة بودكاست "التكنولوجيا لن تنقذنا"، باريس ماركس، تشير إلى أنه على الرغم من التقدم الذي حدث للذكاء الاصطناعي وغيره من تقنيات الأتمتة، فإن هذا لا يعني بالضرورة أنها ستقضي على الوظائف. وتضيف في مقالة نشرتها على موقع "إنسايدر"، أن التكنولوجيا الجديدة ستؤدي ببساطة إلى تغيير طريقة عملنا وأنواع الوظائف المتاحة.
تشترك ماركس في نظرتها هذه مع الكثير من المتخصصين الذين يعتقدون أن الذكاء الاصطناعي سيخلق عشرات الملايين من الوظائف الجديدة، وربما حتى أكثر من تلك التي سيقضي عليها. وقد أرسلت الأتمتة بالفعل جيشاً من العمال السريين إلى ما وراء الشاشات وأخفتهم بعيداً عن الأنظار والأذهان، لنتمكن في النهاية من رؤية تلك الآلات والوجوه الروبوتية المبتسمة.
تعديل رؤية الآلة للعالم
لا يمكن لنماذج الذكاء الاصطناعي أن تقوم بالتنبؤ بنسبة ثقة تبلغ 100%. السبب ببساطة أن "فهمها" للبيانات يعتمد إلى حد كبير على الإحصائيات، والتي تفتقر إلى مفهوم اليقين المطلق (absolute certainty) الذي يستخدمه البشر على أرض الواقع.
تشير شركة "ليفتي" الألمانية المتخصصة في أتمتة أنظمة سير العمل باستخدام الذكاء الاصطناعي، إلى أنه لتفسير عدم اليقين المتأصل هذا، تسمح بعض أنظمة الذكاء الاصطناعي للبشر بالتفاعل معها بشكل مباشر.
ونتيجة لهذه التدخلات والملاحظات اليدوية، تستمر الآلة في تعديل "رؤيتها للعالم". الأمر يشبه ما يحدث عندما يشير طفل صغير إلى قطة ويصدر صوتاً مبهماً، فيستمر والده في توجيهه: "هذه قطة"، حتى يربط الطفل بين الكلمة والمعنى المشار إليه.
اقرأ أيضاً: الذكاء الاصطناعي في قفص الاتهام: تلاعب بصور الناس وانتهاك للخصوصية
في أي تحقيق متعمق حول نظام قائم على الذكاء الاصطناعي، ستجد الكثير من العاملين البشر خلف الكواليس. الأمر لا يقتصر على علماء الذكاء الاصطناعي ومهندسي البيانات فحسب، وإنما على عمال من ذوي الياقات الزرقاء حرفياً. على سبيل المثال، نشرنا مؤخراً تفاصيل التحقيق الذي أجرته "إم آي تي تكنولوجي ريفيو" حول التهديد الذي قد تمثله المكانس الروبوتية على خصوصية الناس، وقد ورد فيه ذكر شركة سكيل أيه آي (Scale AI)، وهي شركة ناشئة تتعاقد مع عمال من حول العالم لتصنيف بيانات الصوت والصور ومقاطع الفيديو المستخدمة لتدريب الذكاء الاصطناعي.
وتكشف التفاصيل عن توظيف شركة المكانس الروبوتية "آي روبوت" للعديد من "جامعي البيانات والموظفين مقابل أجر" الذين وقّعوا اتفاقيات مكتوبة يوافقون فيها على إرسال بياناتهم، بما في ذلك مقاطع الفيديو، إلى الشركة لأغراض التدريب.
قد لا يتصور أغلب مستخدمي هذه المكانس أن الآلاف من العمال والموظفين أسهموا في تطوير هذا المنتج المؤتمت، وأنهم لا يزالون يشاركون بكثافة في تطويره وتحسين رؤيته للعالم.
اقرأ أيضاً: قمة اللغة العربية: جهود لتسخير الذكاء الاصطناعي لخدمة لغة الضاد
يمكن بسهولة أن تلاحظ كيف تمتلئ مواقع التوظيف، مثل لينكدإن، بإعلانات تطلب عمالاً مؤقتين لتدريب أنظمة الذكاء الاصطناعي. وحتى إذا عدت إلى مقاطع الفيديو التي تعرض متاجر ماكدونالدز المؤتمتة، سترى بعض العاملين البشر في الخلفية، ولكن فقط بعيداً عن التعامل المباشر مع العملاء. بل إن الشركات أحياناً تلجأ إلى "عمال وهميين" للتفاعل مع العملاء باعتبارها أنظمة ذكاء اصطناعي.
ولعل المثال الأبرز هنا هو المساعد الافتراضي إم (M) الذي أطلقته شركة ميتا (فيسبوك سابقاً) لفترة وجيزة عام 2015، والذي اتضح أنه لم يكن حقاً ذكاءً اصطناعياً متقدماً، بل كان يتألف في الغالب من فريق من الموظفين البشريين الذين يجيبون عن الأسئلة.
تفاعل لا يتوقف
بشكل عام، يمكن أن نتتبع دور الإنسان في توجيه الآلة في مراحل مختلفة من دورة حياة نموذج الذكاء الاصطناعي. ففي مرحلة التدريب والاختبار، يقوم البشر بتوضيح كيفية أداء مهمة معينة أو مهام متعددة والتحقق من صحة البيانات واختبارها لتسريع عملية التعلم، وبعد ذلك يقومون بتقديم ملاحظات حول أداء النموذج.
يمكن القيام بذلك عن طريق تصحيح مخرجات النموذج، ما يؤدي إلى إنشاء مكافأة يمكن استخدامها في التعلم المعزز. وقد ثبت أن التعلم عبر الأمثلة البشرية وعمليات التقييم هو طريقة ناجعة مقارنة بخوارزميات التعلم الموجَّه التقليدية.
اقرأ أيضاً: كيف سيحدث بوت الدردشة تشات جي بي تي ثورة في مجال الأعمال؟
وقد تابعنا على مدار الشهر الماضي كيف طلبت شركات التكنولوجيا الكبرى من موظفيها بشكل واضح التدخل لمساعدة بوتات الدردشة القائمة على الذكاء الاصطناعي يدوياً. ففي رسالتي بريد إلكتروني منفصلتين أرسلهما كلٌّ من الرئيس التنفيذي لشركة ألفابت (الشركة الأم لجوجل) سوندار بيتشاي، ونائب رئيس الشركة برابهاكار راغافان، طلبا من موظفي الشركة تقديم يد المساعدة لبوت الدردشة الجديد "بارد"، مع شرح لكيفية إصلاح الموظفين لردود البوت، وتشجيعهم على إعادة كتابة الإجابات في الموضوعات التي يفهمونها جيداً، مع إبقاء ردودهم "محايدة" و"عدم إظهار المشاعر". وتوضح رسالة راغافان تحديداً أن "بارد يتعلم بشكل أفضل بالتقليد، لذا فإن قضاء الوقت في إعادة كتابة رد بشكل مدروس سيقطع شوطاً طويلاً في مساعدتنا على تحسين الوضع"، على حد قوله.
في مرحلة ما بعد النشر، وحتى إذا كان النموذج يحقق معدلات دقة عالية، تظل هناك حاجة إلى المراقبة البشرية ومراجعة تكلفة الخطأ. ويمكن توجيه المخرجات التي تقل عن حد معين من الدقة بحيث يتم فحصها والتحقق منها من قبل إنسان، إما في الوقت الفعلي أو في مجموعات لإعادة التدريب في المستقبل.
مفارقة الميل الأخير للأتمتة
كما بدأنا المقالة بمصطلح، ننهيها بمصطلح آخر من الضروري ذكره في هذا السياق، وهو مفارقة الميل الأخير للأتمتة (Paradox of Automation’s Last Mile)، الذي ابتكرته الباحثة في جامعة هارفارد وشركة مايكروسوفت، ماري غراي. يشير هذا المصطلح إلى أنه مع تطور الذكاء الاصطناعي وتقدم الآلات، فإنها تحل مشكلات لم يكن يستطيع حلها في السابق سوى البشر. ولكن مع كل حل، تظهر مشكلة جديدة (أو فرصة للتعلم الآلي)، فيبدأ المهندسون -الذين يستخدمون عمالاً غير مرئيين (Ghost workers) عند الطلب- في بحث كيفية تطوير حدود الأتمتة مرة أخرى.
اقرأ أيضاً: 5 وظائف مهددة بسبب «تشات جي بي تي»
أما البشر الذين اعتادوا على حل هذه المشكلات -التي تحولت للأتمتة الآن- فيتم عزلهم بصفة مستمرة. بكلمات أخرى، يقضي الذكاء الاصطناعي على بعض الوظائف فيما يفتح فرصاً جديدة لإعادة تعريف العمل الذي يقوم به البشر بشكل أفضل.