هل إدماج عدم الثقة ضمن تصاميم أنظمة الذكاء الاصطناعي يجعلها أكثر أماناً؟

8 دقائق
تصاميم أنظمة الذكاء الاصطناعي
مصدر الصورة: تقدمة من إيه سي إم

لطالما سعت أيانا هاورد إلى استخدام الروبوتات والذكاء الاصطناعي لمساعدة الناس. وخلال حياتها المهنية التي امتدت لفترة 30 سنة تقريباً، قامت ببناء عدد لا يحصى من الروبوتات؛ لاستكشاف المريخ، وتنظيف المخلفات الخطرة، ومساعدة الأطفال من ذوي الاحتياجات الخاصة. وخلال عملها، تمكنت من تطوير مجموعة رائعة من التقنيات والأساليب في التلاعب الروبوتي، والملاحة المؤتمتة، والرؤية الحاسوبية. وقد تصدرت هذا الحقل في دراسة خطأ شائع بين البشر، وهو المبالغة في الثقة بالأنظمة المؤتمتة.

وفي 12 مايو، منحت جمعية آلات الحوسبة (إيه سي إم) هاورد جائزة أثينا ليكتشرر لهذا العام، والتي تُقدم إلى النساء اللواتي قدمن مساهمات أساسية في علوم الحاسوب. ولم تحتفِ المنظمة بإنجازات هاورد العلمية الكثيرة والمثيرة للإعجاب فحسب، بل أيضاً بحماسها والتزامها بتقديم كل ما تستطيع إلى مجتمعها. وعلى مدى حياتها المهنية كأخصائية تكنولوجية شهيرة، قامت أيضاً بتأسيس وقيادة الكثير من البرامج المصممة لزيادة مشاركة وبقاء النساء الشابات والأقليات ضعيفة التمثيل في هذا الحقل.

وفي مارس، وبعد 16 سنة من العمل بصفتها أستاذة في معهد جورجيا للتكنولوجيا، شغلت منصباً جديداً هو عميدة كلية الهندسة في جامعة أوهايو الحكومية. وهي أول امرأة تشغل هذا المنصب. وفي يوم تلقيها لجائزة إيه سي إم، تحدثت معها حول حياتها المهنية وأحدث أبحاثها.

تم تعديل المقابلة من حيث الطول وزيادة الوضوح.

لقد لاحظت استخدامك لمصطلح "الذكاء بشري الطابع" لتوصيف بحثك، بدلاً من "الذكاء الاصطناعي". ما السبب؟

أجل، لقد بدأت باستخدام هذا المصطلح في بحث في 2004. وقد كنت أفكر في سبب عملنا على تصميم ذكاء الروبوتات وأنظمة الذكاء الاصطناعي. وهذا السبب هو رغبتنا في الحصول على هذه الصفات الذكية خارج نطاق تعاملاتنا مع البشر. نحن نستمد حافزنا من التجربة البشرية، والبيانات البشرية، والمدخلات البشرية. يشير مصطلح "الذكاء الاصطناعي" إلى أنه نوع مختلف من الذكاء، في حين يشير مصطلح "الذكاء بشري الطابع" إلى كونه ذكاء مستوحى من بنية البشر. وهذا يعني أننا نقوم بإدماج بعض من قيمنا الاجتماعية في هذه الأنظمة عند بنائها.

كيف دخلت هذا المجال؟

لقد وجدت دافعي الأساسي في بحث الدكتوراه الخاص بي؛ ففي ذلك الوقت، كنت أعمل على تدريب متلاعب روبوتي على إزالة الأجسام الخطرة في المستشفى. وقد كان ذلك في الفترة السابقة التي لم تكن أماكن وضع الإبر متوافرة فيها. فقد كانت توضع في نفس سلال القمامة التي يوضع فيها كل شيء آخر، ما أدى أحياناً إلى إصابة العاملين في المستشفى بالمرض. وكنت أفكر كما يلي: كيف يمكن تصميم روبوتات للمساعدة على العمل في تلك البيئة؟

ولهذا، ومنذ البداية، كان محور العمل بناء روبوتات مفيدة للناس. وكان الأمر يتطلب الاعتراف بعدم قدرتنا على بناء روبوتات قادرة على أداء بعض تلك المهام. ولكن، من ناحية أخرى، فإن الناس يقومون بتلك المهام طوال الوقت، ولهذا يكفي تقليدهم. وهكذا بدأ كل شيء.

بعد ذلك، كنت أعمل مع ناسا وأحاول التفكير في ملاحة وتوجيه عربة ناسا الجوالة المريخية في المستقبل. ومرة أخرى، فكرت في هذا: يستطيع العلماء أداء هذا العمل بشكل رائع. ولهذا، يجب أن أجعل بعض العلماء يقومون بتشغيل هذه العربات الجوالة عن بعد، وأراقب ما يرونه على كاميرات العربات، ومن ثم أحاول استنتاج طريقة قيادتهم لها بناء على ذلك. لقد كان الطابع العام هو نفسه على الدوام: لم لا نجعل الخبراء البشر يحولون ما يفعلونه إلى خوارزمية، ومن ثم نحاول إفهامها للروبوتات؟

هل كان الآخرون في ذلك الوقت يفكرون ويتحدثون عن الذكاء الاصطناعي والروبوتات وفق هذه النظرة التي تتمحور حول البشر؟ أم أنك كنت حالة غريبة من نوعها؟

لقد كنت حالة غريبة للغاية، وكنت أنظر إلى الأمور بشكل يختلف عن الآخرين تماماً. وفي ذلك الوقت، لم يكن هناك من يمكنه أن يدلني على كيفية إجراء هذا النوع من الأبحاث. وفي الواقع، عند التفكير في طريقة قيامي بالبحث، أجد أنني أتمنى لو قمت به بطريقة مختلفة تماماً، وهذا بالطبع ناتج عن إجمالي الخبرة والمعرفة التي اكتسبتها في هذا الحقل منذ ذلك الحين.

متى انتقلت من التفكير في بناء روبوتات تساعد البشر إلى التفكير بدرجة أكبر في العلاقة بين الروبوتات والبشر؟

كان دافعي الأساسي تلك الدراسة التي أجريناها عن الإخلاء الطارئ والثقة في الروبوتات. وكنا نحاول تحديد مدى ثقة البشر بإرشاد الروبوتات في إطار أوضاع عالية الخطورة وحساسة بالنسبة للوقت. ولهذا، جلبنا بعض الأشخاص إلى بناء مكتب مهجور خارج الحرم الجامعي، ودخلوا إليه بإشراف روبوت إرشاد سياحي. وابتدعنا قصة حول الروبوت وضرورة أخذ استبيان، وما إلى ذلك. وأثناء وجودهم هناك، ملأنا المبنى بالدخان وأطلقنا إنذار الحريق.

وكنا نراقبهم أثناء محاولتهم للخروج، وذلك حتى نعرف، هل سيحاولون التوجه إلى الباب الأمامي، أو نحو إشارة الخروج، أم أنهم سيتبعون إرشادات الروبوت الذي يقودهم نحو اتجاه مختلف؟

كنا نعتقد أنهم سيتجهون نحو الباب الأمامي لأنه المكان الذي دخلوا منه، وتقول الأبحاث السابقة إن الناس في حالات الطوارئ يميلون إلى الذهاب إلى مكان مألوف. واعتقدنا أيضاً أنهم سيتبعون إشارات الخروج، لأنه سلوك تم تدريبهم عليه سابقاً. ولكن المشاركين لم يقوموا بأي من هذا. بل اتبعوا إرشادات الروبوت فعلياً.

وبعد ذلك، قمنا بتفعيل بعض الأخطاء. فقد جعلنا الروبوت يتعطل، وجعلناه يتحرك في حلقات مغلقة، وجعلناه يأخذ المشاركين في اتجاه يتطلب منهم تحريك الأثاث. وكنا نعتقد أن الشخص في لحظة ما سيقرر التخلي عن الروبوت والتوجه نحو الباب الأمامي، أو اتباع إشارة الخروج الأقرب. غير أن هؤلاء الأشخاص كادوا أن يصلوا إلى نهاية الاختبار قبل أن يبدؤوا بالتوقف عن اتباع إرشادات الروبوت.

وكانت تلك المرة الأولى التي وجدنا فيها أن افتراضاتنا كانت خاطئة تماماً. وشعرنا بالذهول من مدى ثقة الناس في النظام. وقد كانت نتيجة مثيرة للاهتمام ومدهشة، غير أنها تمثل أيضاً مشكلة.

هل رأيت نفس الظاهرة في العالم الحقيقي منذ ذلك الاختبار؟

في كل مرة رأيت فيها حادثاً لسيارة تسلا، خصوصاً الحوادث الأولى، كنت أقول: "أجل، هذا ما يحدث بالضبط". إن البشر يبالغون في ثقتهم بهذه الأنظمة. كما تذكرت ما حدث بعد أول حادث؛ فقد طُلب من مستخدمي تلك السيارات إمساك المقود لفترات متقطعة تصل إلى 5 ثوانٍ، وإذا لم تكن يدك ممسكة بالمقود، فسيتم إيقاف النظام.

ولكنهم لم يتحدثوا معي أو مع مجموعتي؛ لأن هذا لن ينجح. أما سبب فشل هذه الطريقة فهو أن التلاعب بالنظام أمر في غاية السهولة، فعند سماع الإشارة الصوتية أثناء النظر إلى الهاتف الخليوي، يكفي رفع اليد إلى المقود، أليس كذلك؟ إنه اللاوعي. وما زال الانتباه الفعلي غائباً؛ ويعود هذا إلى ثقتك في النظام، واعتقادك بأنه يمكنك العودة إلى ما كان يشغلك من قبل، مثل قراءة كتاب، أو مشاهدة التلفاز، أو النظر إلى الهاتف. ولهذا، فإنه ليس فعالاً؛ لأنه لم يدفعك إلى زيادة مستوى الشك أو التكذيب أو فقدان الثقة. لم تقم هذه الأنظمة بزيادة هذه الأحاسيس لدى الأشخاص بما يكفي لدفعهم إلى المشاركة بشكل فعال من جديد.

من المثير للاهتمام حديثك عن ضرورة إدماج عدم الثقة في التصميم لجعله أكثر أماناً في هذه الأوضاع.

أجل، هذا ما يتوجب فعله. وفي الواقع، فإننا نحاول حالياً إجراء تجربة حول فكرة الحرمان من الخدمة. لم نحصل على نتائج حتى الآن، وما زلنا نعاني بعض المشاكل المتعلقة ببعض المخاوف الأخلاقية. فما إن نتحدث عن الأمر وننشر النتائج، يجب أن نشرح السبب الذي قد يدعو في بعض الأحيان إلى انتزاع قدرة الذكاء الاصطناعي على الحرمان من الخدمة أيضاً. فكيف نزيل خدمة ما إذا كان هناك من يحتاجها بشدة؟

ولكن، نقدم هذا المثال مع مسألة عدم الثقة عند تسلا. فسوف يكون الحرمان من الخدمة على الشكل التالي: يجب أولاً بناء نموذج للثقة، ويمكن فعل ذلك بناء على عدد المرات التي يقوم فيها السائق بالتخلي عن السيطرة على المقود أو إفلاته. وبناء على هذه النماذج للإفلات، يمكن نمذجة اللحظة التي يكون فيها السائق في حالة ثقة كاملة. وقد فعلنا هذا، ولكن باستخدام بياناتنا الخاصة، لا بيانات تسلا؛ ففي مرحلة معينة، ستواجه بحرمان من الخدمة عند دخول السيارة. ولن تتمكن من استخدام النظام لفترة زمنية معينة.

ويمكن تشبيه هذا الأمر بمعاقبة مراهق بأخذ جهازه الخليوي منه. فإذا ربطت سلوك المراهق بقدرته على استخدام جهازه للتواصل مع الآخرين، فإن تنفيذ المراهق لطلباتك أمر مضمون.

ما هي بعض الآليات الأخرى التي قمت بدراستها لتحسين مسألة عدم الثقة في الأنظمة؟

الطريقة الأخرى التي درسناها تسمى -بشكل تقريبي- بالذكاء الاصطناعي القابل للشرح، حيث يقدم النظام تفسيراً لبعض مخاطره أو ارتياباته. ونظراً لوجود ارتيابات في جميع هذه الأنظمة، فليس أي منها فعالاً بنسبة 100%. إضافة إلى ذلك، فإن النظام يعرف متى يكون في حالة ارتياب. ولهذا، يمكن أن يقدم هذه الحالة كمعلومة يستطيع البشر فهمها، وذلك لدفع الناس إلى تغيير سلوكهم.

وعلى سبيل المثال، فإن سيارة ذاتية القيادة تتضمن معلومات خرائط، كما أنها تعرف أن بعض التقاطعات أكثر خطراً من غيرها من ناحية الحوادث. ومع اقترابنا من أحد هذه التقاطعات، يمكن للسيارة أن تقول: "نحن نقترب من تقاطع مات فيه 10 أشخاص في العام الماضي". ويجب أن يُشرح هذا بطريقة تدفع الشخص إلى التفكير بوجوب رفع درجة الحذر.

لقد تحدثنا عن بعض مخاوفك حول ميلنا إلى المبالغة بالثقة في هذه الأنظمة. ما هي المخاوف الأخرى؟ ومن ناحية أخرى، أليس هناك بعض الفوائد؟

إن السلبيات تتعلق فعلياً بالتحيز؛ ولهذا أستخدم دائماً مصطلحي التحيز والثقة في نفس الإطار. فإذا كنا نبالغ في الثقة بهذه الأنظمة التي تتخذ قرارات بنتائج مختلفة بالنسبة لمجموعات مختلفة من الأشخاص -مثل نظام تشخيص طبي يفرق ما بين الرجال والنساء- فنحن فعلياً نبني نظاماً يعزز اللامساواة الموجودة مسبقاً، وهي مشكلة كبيرة. وعندما نصلها بمسائل الصحة أو النقل، وكلاهما يمكن أن يؤدي إلى أوضاع تتعلق بالحياة والموت، فإن قراراً سيئاً واحداً يمكن أن يؤدي إلى عواقب وخيمة دائمة الأثر؛ ولهذا فنحن في حاجة ماسة إلى إصلاح هذه المشكلة.

أما الفوائد فتتلخص في كون الأنظمة المؤتمتة أكثر براعة من البشر عموماً. وأعتقد أنها يمكن أن تكون حتى أفضل من ذلك، ولكنني شخصياً أفضّل التفاعل مع نظام الذكاء الاصطناعي في بعض الأوضاع بدلاً من بعض البشر في أوضاع أخرى. أنا أدرك وجود بعض المشاكل، ولكنني في حاجة إلى نظام الذكاء الاصطناعي، وفي حاجة إلى الروبوت؛ إنها تمتلك المزيد من البيانات، وتعمل بصورة أكثر دقة، خصوصاً إذا كنت شخصياً مبتدئاً. إن النتيجة أفضل، ولكن المشكلة تتلخص في أن النتيجة ليست متسقة على الدوام.

إضافة إلى أبحاثك في الروبوتات والذكاء الاصطناعي، لطالما كنت من كبار المناصرين لزيادة التنوع في هذا المجال على مدى حياتك المهنية. فقد بدأت برنامجاً للإشراف على فتيات الثانوية المعرضات للخطر منذ 20 سنة، قبل بدء الآخرين بالتفكير في هذه المسائل بفترة طويلة. ما منبع أهمية هذه المسألة بالنسبة لك، ولماذا هي أيضاً هامة بالنسبة لهذا الحقل؟

إنها هامة بالنسبة لي لأني أتذكر أوقاتاً في حياتي عندما أتاح لي أحدهم الوصول إلى الهندسة وعلوم الحاسوب. لم أكن حتى مدركة لوجود هذه العلوم. لذا، وبعد فترة قصيرة، أدركت قدرتي على خوض هذا المجال. ولهذا، لطالما شعرت بأنني مسؤولة عن القيام بنفس الشيء مع الآخرين كما حدث معي شخصياً. ومع تقدمي في العمر، بدأت ألاحظ أنني مختلفة في الشكل عن الكثيرين من الموجودين معي في نفس الغرفة. ما جعلني أدرك التالي: لا بد من وجود خطأ ما؛ لأنهم يفتقرون إلى القدوة، ويفتقرون إلى إمكانية الوصول إلى العلم، بل إن الكثيرين منهم لم يسمعوا به.

ولذلك، فإن هذا الأمر مهم لهذا المجال بسبب وجود خبرات مختلفة لدى الجميع. وعلى سبيل المثال، فقد فكرت في تفاعلات البشر والروبوتات قبل أن يفكر فيها الآخرون. ولم يكن هذا بسبب ألمعيتي في هذا المجال، بل لأنني ببساطة نظرت إلى المشكلة بطريقة مختلفة. وعند التحدث إلى شخص لديه وجهة نظر مختلفة، فسوف أميل إلى محاولة الجمع بين وجهتي النظر للحصول على أفضل النواحي من كليهما.

وعلى سبيل المثال، فإن الوسادات الهوائية تؤدي إلى مقتل نسبة أكبر من النساء والأطفال. ما السبب؟ أعتقد أن السبب هو أنه لم يوجد أحد يقترح إجراء التجارب على هذه الوسادات ولكن مع النساء. هناك الكثير من المشاكل التي تسببت في مقتل أشخاص من مجموعات معينة من الناس أو كانت خطراً عليهم. ويمكن أن أقول إن هذا حدث نظراً لعدم وجود ما يكفي من الأشخاص المشككين، الذين يتحدثون من خبراتهم العائدة إلى بيئاتهم ومجتمعهم.

كيف تأملين أن تتطور أبحاث الذكاء الاصطناعي والروبوتات مع مرور الوقت؟ وما رؤيتك لهذا الحقل؟

إذا نظرنا إلى البرمجة، لوجدنا أن هذه المهارات موجودة تقريباً لدى الجميع. وهناك الآن الكثير من المنظمات مثل Code.org. وهناك الكثير من الموارد والأدوات. وأرغب كثيراً في خوض حوار مع أحد الطلاب لأسأله "ما معلوماتك حول الذكاء الاصطناعي والتعلم الآلي؟" ويجيب: "د.  هاورد، لقد كنت أعمل في هذا المجال منذ الصف الثالث!". أتمنى التعرض إلى صدمة كهذه، فستكون صدمة رائعة. بالطبع، قد أفقد وظيفتي لهذا السبب، ولكنها مسألة أخرى.

ولكنني أعتقد أنه بوجود الأدوات البرمجية اللازمة للذكاء الاصطناعي والتعلم الآلي، يمكنك أن تبني وظيفتك بنفسك، وتبني مستقبلك بنفسك، وتبني حلولك بنفسك. وهو الحلم الذي أتمنى أن يتحقق يوماً ما.