عندما تخفق الخوارزميات، يقع اللوم على أقرب إنسان في محيطها!

4 دقائق
مصدر الصورة: دائرة شركة تيمب

نشرت بلومبيرج مؤخراً مقالة عن تطورات قضية قانونية حول الاستثمارات الخاسرة بسبب إحدى الخوارزميات، فقد خسر أحد كبار أثرياء هونج كونج أكثر من 20 مليون دولار بعد أن عهد بجزء من ثروته إلى منصة مؤتمتة. ومن دون أي إطار قانوني لمقاضاة التكنولوجيا نفسها، ألقى باللائمة على أقرب بشري إليها: وهو الرجل الذي باعها إليه.

وعلى الرغم من أن هذه القضية هي الأولى من نوعها فيما يتعلق بالاستثمارات المؤتمتة، فإنها ليست الأولى المتعلقة بالمسؤولية القانونية للخوارزميات. ففي مارس من عام 2018، صدمت سيارة أوبر ذاتية القيادة أحد المشاة في تيمب بأريزونا، مما أدى إلى مقتل الضحية، وذهاب قضية أخرى إلى المحكمة. وبعد سنة، أُعفِيَت أوبر من كامل المسؤولية الجنائية، غير أن السائق الاحتياطي (داخل السيارة ذاتية القيادة) ما زال معرَّضاً لتهمة القتل غير المتعمد بمركبة آلية بدلاً من ذلك.

وتتعامل كلتا القضيتين مع سؤال هام واحد يجب أن نواجهه مع تسرب الأنظمة المؤتمتة إلى جميع نواحي المجتمع: على من أو على ماذا نلقي باللائمة عندما تتسبب خوارزمية في أذى ما؟ ويمثل التمييز بين البشر والآلة هنا مسألة مختلفة كلياً، ولكنها لا تقل أهمية.

يلعب البشر دور "إسفنجة ماصة للمسؤولية".

- مادلين كلير إيليش

 

تعمل مادلين كلير إيليش باحثةً في معهد البيانات والمجتمع، ومختصة مُدربة بعلم الإنسان الثقافي، وقد أمضت السنوات الأخيرة في دراسة السؤال الثاني لرؤية ما إذا كان سيساعد على الإجابة عن السؤال الأول أم لا، ولهذا اعتمدت على دراسات الحالات التاريخية. وفي حين أن أنظمة الذكاء الاصطناعي العصرية لم تظهر إلا مؤخراً، فإن التساؤلات حول مسؤوليتها ليست بالجديدة.

 

على سبيل المثال، فإن حادث أوبر يكافئ حادث تحطم رحلة شركة الطيران الفرنسية رقم 447 في 2009، ويمكن بنظرة إلى التعامل مع المسؤولية في تلك القضية أن نستخلص بعض الأدلة عما يجب فعله الآن. ففي ذلك الحادث المأساوي، تحطمت الطائرة فوق المحيط الأطلسي في طريقها من البرازيل إلى فرنسا، مما أدى إلى مقتل جميع من كان على متنها، وعددهم 228 شخصاً. وقد تم تصميم نظام الطائرة الآلي حتى يكون "مضموناً تماماً"، وقادراً على التعامل مع جميع السيناريوهات تقريباً، باستثناء الحالات النادرة التي تتطلب تولي الربَّان البشري لدفة القيادة. وبهذا المعنى، يمكننا القول إن الربان كان أقرب في دوره إلى السائق الاحتياطي في السيارات ذاتية القيادة، أي أنه يراقب الرحلة دون تدخل أغلب الوقت، ولا يتخذ أية إجراءات إلا في حالات الخطر الشديد.

وقد أصبحت أحداث تلك الليلة الآن معروفة بشكل مفصل؛ فبعد حوالي ساعة ونصف من بدء الرحلة، توقفت حساسات سرعة الهواء للطائرة عن العمل بسبب تشكل الجليد. وبعد أن نقل نظام الربان الآلي التحكم إلى الطيارين البشريين، أدى الارتباك وسوء التواصل إلى دخول الطائرة في حالة انهيار هوائي؛ حيث حاول أحد الطيارين أن يخرج من حالة الانهيار بتوجيه مقدمة الطائرة نحو الأسفل، في حين حاول الآخر -بسبب الذعر على الأرجح- أن يرفع المقدمة نحو الأعلى لمواصلة زيادة الارتفاع. غير أن النظام كان مصمماً للاستجابة لطيار واحد في نفس الوقت، ولم يقدم أية إشارات أو دلالات لمسية تحدد الطيار الذي كان يتحكم في الطائرة فعلياً، وما الذي كان يفعله الطيار الآخر. وفي النهاية، ارتفعت الطائرة إلى زاوية حادة للغاية، لدرجة أن النظام اعتبرها غير صحيحة، وتوقف عن تقديم المعطيات بالكامل. أما الطياران فقد تابعا التخبط على غير هدى إلى أن وقعت الطائرة في البحر.

وفي بحث نُشر مؤخراً، درست إيليش ما حدث بعد المأساة، وحددت نمطاً هاماً لكيفية استيعاب العامة لما حدث. فقد استنتج تحقيق فدرالي أن الخطأ الكارثي هو محصلة أخطاء تصميم النظام ونقص تدريب الطيارين، في حين أن العامة أجمعوا بسرعة على الرواية التي تلقي باللائمة بالكامل على السبب الثاني وحسب. وقد أدت الروايات الإعلامية على وجه الخصوص إلى نشر اعتقاد يبرِّئ نظام الربان الآلي المعقَّد من أية أخطاء في هذه المسألة، على الرغم من كل أبحاث العوامل البشرية التي أثبتت أن البشر لطالما كانوا يفتقرون للكفاءة في التصدي للحالات الطارئة على الفور بأعصاب متماسكة وذهن صافٍ.

وفي دراسات حالات أخرى، وجدت إيليش أن نفس النمط بقي صحيحاً، فحتى بوجود نظام مؤتمت إلى درجة كبيرة لا يتحكم البشر في عمله إلا بشكل محدود، فهم يتحملون معظم المسؤولية عن حالات فشله. وتسمي إيليش هذه الظاهرة "منطقة امتصاص الصدمات الأخلاقية"، وقد كتبت في بحثها: "صُممت منطقة امتصاص الصدمات في السيارة لحماية السائق البشري، أما منطقة امتصاص الصدمات الأخلاقية فهي لحماية سُمعة النظام التكنولوجي، وذلك على حساب أقرب مشغّل بشري". وتضيف أن البشر يلعبون دور "إسفنجة ماصة للمسؤولية"؛ أي أنهم يتحملون كامل المسؤولية القانونية والأخلاقية في أي حادث ينطوي على خوارزميات، مهما كان دورهم صغيراً أو غير مقصود.

ويقدم لنا هذا النمط معلومات هامة حول الطريقة المقلقة التي ننظر بها إلى مسؤولية أنظمة الذكاء الاصطناعي العصرية. فبعد حادثة أوبر مباشرة، وجهت عناوين الصحافة أصابع الاتهام إلى أوبر، ولكن بعد بضعة أيام وحسب، تغيرت الرواية لتركز على تشتت انتباه السائق.

تقول إيليش: "يجب أن نبدأ بالسؤال عمن يتحمل مسؤولية مخاطر التجارب التي تجريها الشركات التكنولوجية"؛ حيث إن السائقين الاحتياطيين وغيرهم من المشغّلين البشريين لا يتمتعون في أغلب الأحيان بأية سلطة أو مساهمة في التصميم التكنولوجي للمنصات التي يتفاعلون معها، ولكنهم ما زالوا يدفعون الثمن الأكبر في ظل الفراغ القانوني الحالي.

ويجب أيضاً أن يخوض المشرّعون حوارات أكثر دقة حول الهيكلية التي ستساعد على توزيع المسؤولية بشكل منصف. تقول إيليش: "يجب أن يفكروا بحرص في تنظيم الأنظمة الاجتماعية التكنولوجية، وليس فقط الصناديق السوداء الخوارزمية"؛ أي أنهم يجب أن يدرسوا مدى نجاح تصميم النظام ضمن السياق الذي يعمل فيه، وما إذا كان يدفع المشغلين البشريين نحو الفشل أو النجاح. وعلى سبيل المثال، يجب تنظيم السيارات ذاتية القيادة بشكل يأخذ بعين الاعتبار ما إذا كان الدور المطلوب من السائقين الاحتياطيين معقولاً أم لا.

وقد كتبت إيليش: "لا يتضمن مفهوم منطقة امتصاص الصدمات الأخلاقية كيفية توزيع المسؤولية في حالة وجود أي نظام روبوتي أو مؤتمت فحسب، بل أيضاً القيمة والمساهمة لتطور البشر في سياق الفرق البشرية - الآلية".