شهدت العناوين الإخبارية عودة المجرم الشهير المناهض للتكنولوجيا، تيد كاتشينسكي، المعروف باسم يونابومبر (Unabomber). فقد عُثِر عليه ميتاً في زنزانته في سجن نورث كارولاينا في وقتٍ سابق من هذا العام، ويُرجّح أنه مات منتحراً. مع ذلك، وحتى قبل موته وما رافقه من تحليلات للإرث الذي تركه خلفه، يبدو أن أفكاره اكتسبت زخماً جديداً. فما زالت نظرته إلى كل ما يتعلق بالتكنولوجيا، التي تتسم بالتعميم والارتباط بنظريات المؤامرة، تلقى تأييداً من قِبل الكثيرين.
في الواقع، لم تذهب أفكاره أدراج الرياح على الإطلاق. فعندما سمح مكتب التحقيقات الفيدرالي لصحيفة واشنطن بوست (Washington Post) بنشر بيانه المؤلف من 35,000 كلمة، افترض أن هذا البيان لن يجتذب الكثيرين لقراءته. (هدد كاتشينسكي بتفجير قنبلة إذا لم يُنشر البيان، وقد ساعد قرار النشر على القبض عليه) لكن البيان حظي بانتشارٍ واسع بين القراء، وتحول لاحقاً إلى مادة حققت أفضل المبيعات. وعلى حين لن يدافع الكثيرون عن أفعاله، فإن عدداً مفاجئاً من المشككين بالتكنولوجيا يتعاطفون مع أفكاره إلى درجة ما، ويشيرون إلى أن مخاوفه حول تأثير التكنولوجيا في البشر ليست وهمية تماماً.
يمثّل الانتشار المتواصل لأفكار كاتشينسكي تذكيراً قوياً بالحاجة إلى التعامل مع التصورات العامة المتعلقة بنظرة الناس إلى التكنولوجيا، خصوصاً ما يشعر به الكثيرون من العزلة. من ناحية أخرى، يركّز التحليل التقليدي لاستعداد المستخدمين لتبنّي الذكاء الاصطناعي، على نحو محدد للغاية، على التفاعل الفعلي بين البشر والوكلاء الأذكياء (Agents). على وجه التحديد، عمل الباحثون في مجال هاي HAI -اختصاراً لعبارة "التفاعل بين البشر والوكلاء الأذكياء" (Human-Agent Interaction) على تقييم التساؤلات المزدوجة المتعلقة بالتقبل والثقة، آملين تحديد مدى تلبية توقعات المستخدمين واحتياجاتهم وتفضيلاتهم في تفاعلاتهم مع الوكلاء الأذكياء.
هذه المعايير مفيدة، ولكن إلى حد معين فقط. فعندما نتمعن في العوامل التي تؤدي فعلياً إلى تقويض الانفتاح تجاه الذكاء الاصطناعي وتبنيه، وفي تحول هذه النظرة لاحقاً إلى مقاومة فاعلة، بل وحتى ميل إلى التخريب، ستؤول المسألة إلى مجموعة أكبر من المشكلات المستقلة عن التفاعلات الفعلية مع الوكلاء الأذكياء. ليس المستخدمون في حاجة إلى الالتزام بأفكار كاتشينسكي حتى يشاطروه شيئاً من شعوره بانعدام الثقة والوحشة إزاء التكنولوجيا.
ولهذا السبب، نقترح الآن معياراً ثالثاً، وهو التسامح، للتعبير عن مجموعة أكبر من السلوكيات تجاه التكنولوجيا، وأثرها في العمل والمجتمع (سينشر لاحقاً). غير أن فكرة التسامح تتجاوز الحدود الضيقة للتفاعلات بين المستخدم والوكيل الذكي، وتصل إلى تقييم الشعور المحتمل بالوحشة لدى الفرد، وهو شعور يمكن أن يظهر في سياق التكنولوجيات الجديدة. يمكن أن تؤدي الكراهية المتجذرة للتكنولوجيا، وانعدام الثقة بها، إلى تقويض تبني المستخدمين للتكنولوجيا، حتى بوجود مستوى عالٍ من الثقة والتقبل. هذه المجموعة الأكبر من المشكلات المتعلقة بالتكنولوجيا والبشرية مستقلة تماماً عن التفاعلات الإفرادية بين البشر والوكلاء الأذكياء. ومن الواضح أنه لا يكفي على الإطلاق أن نقيس المواقف إزاء التكنولوجيات الذاتية التحكم بناءً على تجربة المستخدم وحسب.
اقرأ أيضاً: الذكاء الاصطناعي: هل حان الوقت للحديث عن النفوذ بدلاً من مناقشة الأخلاقيات؟
حدود التقبل والثقة
التقبل هو معيار مبني على عدد من العوامل، مثل الفائدة الظاهرية وسهولة الاستخدام الظاهرية (المفترضة). تعود هذه الفكرة إلى نموذج تقييم التكنولوجيا (أو "تام" (TAM)، اختصاراً للعبارة "Technology Assessment Model") الذي ظهر أول مرة عام 1989. أمّا معيار الثقة فهو يتناول السلوكيات التي تظهر في المواقف التي يتعلق فيها قرار تبني تكنولوجيا ما بمدى التعرض للمخاطر، ويشمل درجة الثقة بتصرف روبوت ما. على سبيل المثال، بما يخدم مصلحة الإنسان على أفضل وجه، عندما يكون هذا الإنسان معرضاً لخسارة شيء ما.
لقد خضع نموذج "تام" لتعديلات كبيرة في العقود التي تلت ظهوره. وقد تطورت الإصدارات التالية منه لتتخذ شكلاً أكثر شمولية يُسمَّى "النظرية الموحدة لقبول التكنولوجيا واستخدامها" (أو "يوتاوت" (UTAUT)، وهو اختصار للعبارة "Unified Theory of Acceptance and Use of Technology"). لكن، مع إدراك أن فكرة الذكاء الاصطناعي تُضيف مجموعة أكبر من التساؤلات إلى المعادلة، يشير البعض إلى أن هذه النماذج التقليدية صالحة فقط لدراسة التكنولوجيات غير الذكية. ومؤخراً، اقتُرِح نموذج جديد يحمل اسم "نموذج تقبل استخدام أجهزة الذكاء الاصطناعي" (أو "أيدوا" (AIDUA)، اختصاراً للعبارة "AI Device Use Acceptance Model"). غير أن هذا النموذج لا يزال مبنياً بالكامل تقريباً على دراسة تجربة المستخدم.
وقد أشارت دراسة تعود إلى عام 2018 حول تقبل الجنود للأنظمة الذاتية التحكم في المجال العسكري إلى الحاجة إلى فهم الثقة في الروبوتات والأتمتة في سياقٍ أوسع بكثير، بحيث يشمل المشكلات الأكبر من الناحية الاجتماعية والنفسية، وتغيرات موازين النفوذ في مكان العمل، ومدى تأثير الأتمتة (الحقيقي أو الظاهري) على استقلالية الفرد ومصلحته الإجمالية. وركزت دراسة لاحقة على المخاطر المحتملة لحدوث عصيان بين أفراد المؤسسات العسكرية بسبب المواقف العصابية، بل وربما التي تصل حد الإصابة بجنون العظمة، إزاء المنظومات التي تتسم بدرجة عالية من الأتمتة والتحكم الذاتي. وأشارت هذه الدراسة على وجه الخصوص إلى بيان كاتشينسكي بوصفه مثالاً صارخاً على انخفاض التسامح مع الوكلاء الأذكياء.
اقرأ أيضاً: تُرى ما الذي دعا الصين فجأة إلى الاهتمام بأخلاقيات الذكاء الاصطناعي؟
تكلفة تجاهل التسامح
يمكننا إثبات الحاجة إلى سياقٍ أوسع من خلال دراسة السيناريوهات الافتراضية المستوحاة جزئياً من أحداث حقيقية وموثقة. لنتخيل وضع روبوت مخصص للخدمات اللوجستية في قاعدة طيران لتخليص أفراد الطاقم الأرضي من عبء نقل القطع الكبيرة من أحد جانبي عنبر طائرات طويل للغاية إلى الجانب الآخر، وهي عملية تستغرق الكثير من الوقت. بعد ذلك، يكتشف أفراد الطاقم أن الروبوت مفيد وموثوق. ويبدون إعجابهم بالواجهة السهلة الاستخدام، ويتسم موقفهم من الروبوت في البداية بالإيجابية، أو بعدم الاكتراث على الأقل. لكن، بعد مرور عدة أسابيع من استخدام النظام الجديد الذي بدا مثالياً للوهلة الأولى، يبدأ المشرفون بإرسال تقارير تفيد بأن طاقم العنبر تخلّوا بالكامل تقريباً عن استخدام الروبوت. حتى إنه في إحدى المرات، حاول بعض أفراد الطاقم تخريبه.
فما الذي أدّى إلى هذا الانفصال والتباين بين المستوى الظاهري المرتفع للتقبل والثقة، والنقص العميق في التسامح؟
لنقل إن التحقيقات المعمقة، في هذا السيناريو الافتراضي، كشفت أن أفراد الطاقم وجدوا أن استخدام الروبوت أثار مخاوف عميقة وتوترات كامنة ضمن بيئة العمل، على الرغم من أنهم لم يتخذوا إزاء الروبوت موقف الكراهية أو عدم الثقة بصورة مباشرة وصريحة، وعلى الرغم من عدم وجود أي خطة للاستغناء عن العاملين، وعدم وجود ما يشير إلى خطة كهذه، فإن أفراد الطاقم وجدوا أنفسهم في حالة قلق متفاقم حول إمكانية تحولهم إلى عناصر فائضة عن الحاجة في حال استخدام روبوتات أخرى داخل العنبر. وأدّى هذا التهديد المحتمل لمصادر رزقهم وشعورهم بالاستقلالية إلى تغيير تصورهم بشأن دورهم ومكانتهم في العنبر، ما أدّى إلى تفاقم التوترات الكامنة بين فريقين موزعَين على طرفي نقيض. اعترف أفراد الطاقم بأن الروبوت بقي مفيداً وفعّالاً طوال الوقت. لكن الكثيرين منهم، في نهاية المطاف، انقلبوا ضده، وعلى نحو يتسم بالعنف في بعض الأحيان.
اقرأ أيضاً: كيف نطوّر الذكاء الاصطناعي المسؤول الذي ينفع المجتمع؟
هل كان اللوديون مناهضين للتكنولوجيا فعلياً؟
كان اللوديون (محطمو الآلات) مجموعة من النساجين والعاملين البريطانيين في مجال النسيج، الذين اعترضوا في بداية القرن التاسع عشر على توجه مالكي المصانع نحو استخدام جيل جديد من الأنوال وإطارات الحياكة الميكانيكية. (سُمي اللوديون بهذا الاسم نسبة إلى نيد لاد (Ned Ludd)، الذي يُقال إنه كان متدرباً شاباً حطّم آلة نسيج عام 1779. لكن هذا الشخص من المحتمل أنه لم يكن موجوداً على الإطلاق، ما يجعله أقرب إلى روبن هود، الذي يُقال إنه يتحدر من مدينة نوتنغهام). تعرض اللوديون إلى السخرية والاستهزاء في الثقافة الشعبية، وعاد هذا الاسم إلى الظهور بوصفه مصطلحاً شاملاً لوصف كل مَن يخشى التكنولوجيا أو يشكك فيها حتى. وقد وصف البعض تيد كاتشينسكي بأنه من اللوديين الجدد. غير أن مخاوف هؤلاء الأشخاص كانت حقيقية، وقد حاول كتابان حديثان تقديم تفسير موضوعي لما حدث في سياق معاصر يقارنه بمعاركنا الحالية المحتدمة حول التكنولوجيا.
كانت صناعة الأنسجة المحرك الدافع للنصف الأول من الثورة الصناعية، لكن الصناعة كانت تعاني في بداية القرن السابع عشر، ويُعزى هذا جزئياً إلى عوامل خارجية مثل حروب نابليون. فقد وصل كل من البطالة والتضخم إلى مستويات عالية، وأراد مالكو المصانع تخفيف التكاليف بالاعتماد على آلات يمكن أن يشرف عليها عمال غير مهرة ويأخذون أجوراً منخفضة. كان عمال النسيج سابقاً حرفيين مهرة يمضون سنوات في تعلم صنعتهم، وعندما قوبلت دعواتهم إلى رفع الأجور وتحسين ظروف العمل بالرفض، لجأ البعض إلى العنف. ووفقاً لإحدى الروايات، فقد حدث أول هجوم على معمل بعد استخدام العنف لتفريق مظاهرة سلمية.
في كتاب برايان ميرتشانت "دماء في الآلات" (Blood in the Machine)، لم يوصف اللوديون بأنهم يخشون التكنولوجيا، بل وُصِفوا بأنهم عمال كانوا يشعرون بالخوف والتوتر، ولم يجدوا ملاذاً إلّا في التنفيس عن مشاعرهم السلبية بتحطيم الآلات، التي كانوا يرون فيها رمزاً، لا عدواً فعلياً. وعلى غرار طاقم العنبر في السيناريو المذكور سابقاً، كانت هناك مجموعة أكبر من المخاوف المتعلقة بمستقبل العمل، وكانت هذه المخاوف هي السبب الذي حفّزهم على مقاومة التكنولوجيا، لا التكنولوجيا نفسها.
اقرأ أيضاً: إريك زينغ: أهمية الذكاء الاصطناعي المسؤول في مستقبل مجتمعاتنا
أصحاب مصالح مختلفون، ووجهات نظر مختلفة
لا داعي للاعتراف باللوديين أبطالاً للإقرار بأن أصحاب المصالح المختلفين في مكان العمل يختلفون في نظرتهم إلى تبني التكنولوجيات الجديدة. ويمكن لنموذج التسامح أن يساعد على إلقاء الضوء على وجهات النظر المتباينة هذه، والتفاعلات المرجحة بينها.
فسوف يميلُ صُنّاع القرار والمالكون إلى تقييم التكنولوجيات الجديدة، بما فيها الذكاء الاصطناعي والروبوتات، بناءً على عوامل مثل الفاعلية، والوثوقية، والراحة. تركّز أبحاث "هاي" التقليدية أيضاً على هذه المتغيرات، ما يؤدي إلى تجاهل ناحية مهمة تتضمن العوامل الدافعة للتسامح (أو عدم التسامح).
من ناحية أخرى، ينظر الموظفون والمستخدمون إلى هذه المسائل بطريقة مختلفة. فقد يكونون منفتحين لتقبل حجة مبنية على الفاعلية والوثوقية والراحة. وربما تقنعهم هذه الحجة إلى حد ما. لكن في نهاية المطاف، قد تطغى التساؤلات المتعلقة بالأمان الوظيفي والاستقلالية والطبيعة المجردة للذكاء الاصطناعي على ما لديهم من تقبل وثقة. يأخذ نموذج التسامح مجموعة أكبر من القيم ووجهات النظر بعين الاعتبار، وتتراوح بين القلق والازدواجية عند ظهور التكنولوجيات الجديدة، والمقاومة المباشرة والصريحة، بل وحتى العدوانية.
اقرأ أيضاً: كيف ستُحدث تقنية الهيدار ثورة في عالم المركبات ذاتية القيادة والروبوتات؟
الروايات الأكبر المتعلقة بالذكاء الاصطناعي والروبوتات والتكنولوجيا
لا يمكننا ببساطة صرف النظر عن مخاوف الموظفين والمستخدمين بوصفها "غير عقلانية" عندما ندرك أن الرواية الأكثر شمولية في وسائل الإعلام والثقافة الشعبية حول التكنولوجيات الجديدة تتسم بدرجة عالية من الالتباس والتشويش. على سبيل المثال، نشر باحثون من جامعة أكسفورد في 2013 تقديرات تشير إلى أن نسبة تصل إلى 47% من إجمالي الوظائف في الولايات المتحدة "معرضة للخطر" بسبب الأتمتة خلال عقد أو عقدين من الزمن. وتبعتها بعد فترة قصيرة سلسلة من العناوين الإخبارية التي تنذر بالشؤم والويلات بشأن حلول الروبوتات محل البشر. وفي السنة نفسها، تمكن الذكاء الاصطناعي واتسون من شركة آي بي إم من التفوق على منافسيه البشر في لعبة "جيوباردي!" (!Jeopardy). وكان من الطبيعي والمتوقع أن تصل المخاوف المتعلقة بالتكنولوجيا إلى درجة عالية.
وحتى الآن، ما زالت العناوين الإخبارية الرئيسية المتعلقة بحلول الذكاء الاصطناعي محل البشر جذابة لنقرات القراء، لكنها لا تعبّر عن الواقع بالدقة والتفاصيل المطلوبة. ففي شهر مارس/ آذار من هذا العام، أشارت تقديرات مصرف غولدمان ساكس (Goldman Sachs) إلى أن أدوات الذكاء الاصطناعي يمكن أن تؤدي إلى أتمتة ما يكافئ 300 مليون وظيفة بدوام كامل. لكن هذا لا يعني اختفاء 300 مليون وظيفة على حين غرة، والكلمة المفتاحية في هذا التقدير هي: يكافئ. أمّا الواقع (وفقاً للباحثين في شركة أوبن أيه آي (OpenAI) بالتعاون مع جامعة بنسلفانيا) فهو أن 80% من القوى العاملة يمكن أن تشهد تأثّر نسبة 10% على الأقل من مهامها، أمّا طبيعة هذا التأثر بالضبط فهي مسألة مفتوحة للنقاش. ووفقاً لديفيد أوتور من معهد ماساتشوستس للتكنولوجيا (MIT): "يمكن للتأثر أن يعني التحسن، أو التراجع، أو الاختفاء، أو التضاعف".
هذه هي الأخبار الحقيقية في العالم الحقيقي. أمّا عوالم الخيال والأفلام فلا تزال تواصل ضخ القصص الشبيهة بفيلم "Terminator" (أو المبيد) حول الآلات التي تستولي على العالم. قد تكون القصص مصطنعة ومبالغاً فيها، لكن المخاوف حقيقية. وعلى حين يتشكل التقبل والثقة عن طريق التفاعلات الفعلية مع الوكلاء الأذكياء (smart agents)، فإن التسامح يتشكل وفقاً للمعتقدات والآراء، ويميلُ صُنّاع القرار إلى أخذ هذا الأمر بعين الاعتبار.
اقرأ أيضاً: حوار مع الرئيس التنفيذي لشركة ڤاست داتا حول منصته الجديدة لحوسبة البيانات
خطوات عملية لصناع القرار
حتى بوجود مستوى عالٍ من التقبل والثقة، فإن الافتقار إلى التسامح (أو الأسوأ من ذلك، التعصب المقترن بالفعل) يمكن أن يؤدي إلى تقويض تبني تكنولوجيا الذكاء الاصطناعي بالكامل. وبدلاً من صرف النظر عن المخاوف المتعلقة بالذكاء الاصطناعي بوصفها غير منطقية أو تحمل صفات اللودية الجديدة، يتعين على صُنّاع القرار استخدام نظرة نموذج التسامح للتعامل مع هذه المخاوف بصورة استباقية.
ومن بين الخطوات التي يمكن لصُنّاع القرار اتخاذها:
- تقييم مستويات التسامح لدى الموظفين: يمكن إجراء استطلاعات للرأي أو ورش عمل للإحاطة بمدى تسامح الموظفين إزاء التكنولوجيات المؤتمتة. وهو ما يمكن أن يساعد على توقع أي مقاومة والتعامل معها.
- توفير التدريب والدعم: يمكن توفير جلسات تدريبية ودعم متواصل للمساعدة على تعزيز مستويات تآلف الموظفين مع التكنولوجيات الجديدة وارتياحهم لها.
- تعزيز الشفافية: يجب تقديم توضيحات وافية حول أسباب تطبيق التكنولوجيا الجديدة وفوائدها للشركة والموظفين.
- التطبيق التدريجي: قد يكون من المفيد دراسة إمكانية تطبيق التغييرات وفق خطوات تدريجية للسماح للموظفين بالتكيُّف مع التغيرات وزيادة تسامحهم مع مرور الوقت.
- إشراك الموظفين في العملية: يجب أن يشارك الموظفون بوجهة نظرهم في عملية اتخاذ القرار. ويمكن لهذا أن يزيد شعورهم بالسيطرة على البيئة المحيطة بهم، ما يؤدي بدوره إلى زيادة تسامحهم.
- التعامل مع المخاوف بصورة استباقية: إذا عبّر الموظفون عن مخاوفهم المتعلقة بالتأثيرات المحتملة للتكنولوجيا الجديدة على أدوارهم، يجب التعامل مع هذه المخاوف بأسلوب منفتح وصادق. ويتعين مناقشة الفرص الممكنة لتحسين المهارات وطمأنة الموظفين إلى أن الهدف ليس استبدالهم، بل تعزيز قدراتهم.
في المحصلة، يوفّر التسامح جنباً إلى جنب مع التقبل والثقة نهجاً أكثر شمولية لفهم الجانب البشري المتعلق بتبني التكنولوجيات الذاتية التحكم وإدارتها. يمكن لهذا النهج الأكثر تفصيلاً ودقة أن يمهّد الطريق نحو تطبيق أكثر نجاحاً للتكنولوجيات في المستقبل. لا يحل نموذج التسامح محل النماذج الموجودة مسبقاً لتبني التكنولوجيا بقدر ما يكمّلها.