في كثير من الأحيان، يمثل وصف أحد أنظمة اتخاذ القرار بأنه “خوارزمية” وسيلة لتفادي المساءلة بشأن القرارات البشرية. وبالنسبة للكثيرين، فإن المصطلح يشير ضمناً إلى مجموعة من القواعد التي تستند بشكل موضوعي إلى الأدلة أو البيانات التجريبية. كما يشير أيضاً إلى نظام معقد للغاية، وربما تصل شدة تعقيده لدرجة تجعل الإنسان يكافح لفهم طريقة عمله الداخلية أو توقع سلوكه عند نشره.
ولكن هل هذا التوصيف دقيق؟ ليس دائماً.
على سبيل المثال، في أواخر شهر ديسمبر الماضي، تم إلقاء اللوم في سوء توزيع مركز ستانفورد الطبي للقاحات كوفيد-19 على “خوارزمية” التوزيع التي فضَّلت كبار المسؤولين الإداريين على الأطباء المتواجدين في الخطوط الأمامية. ادعى المستشفى أنه تشاور مع علماء أخلاقيات لتصميم “خوارزميته المعقدة للغاية”، وقال أحد ممثليه: “من الواضح أنها لم تعمل بشكل صحيح”، بحسب ما ذكرته إم آي تي تكنولوجي ريفيو في ذلك الوقت.
وفي حين فسر العديد من الناس استخدام المصطلح على أنه يعني أن الذكاء الاصطناعي أو التعلم الآلي كان ضالعاً في الأمر، فإن النظام كان في الواقع خوارزمية طبية، وهي تختلف من الناحية الوظيفية. لقد كان أقرب إلى صيغة بسيطة للغاية أو شجرة قرار صممتها لجنة بشرية.
يسلط هذا الانفصال الضوءَ على مشكلة متنامية؛ فمع انتشار النماذج التنبؤية، يصبح عامة الناس أكثر حذراً عند استخدامها في اتخاذ القرارات الحاسمة. ولكن مع بدء صناع السياسات في وضع معايير لتقييم الخوارزميات ومراجعتها، يتعين عليهم أولاً أن يحددوا الفئة التي تندرج تحتها أدوات اتخاذ أو دعم اتخاذ القرار التي ستُطبق عليها سياساتهم، فقد يؤدي ترك مصطلح “الخوارزمية” مفتوحاً للتفسير إلى وضع بعض النماذج ذات التأثير الأكبر بعيداً عن متناول السياسات المُصممة في الأساس لضمان عدم إيذاء مثل هذه الأنظمة للناس.
كيفية التعرف على الخوارزمية
إذن هل تُعد “خوارزمية” ستانفورد خوارزمية حقاً؟ يعتمد هذا الأمر على كيفية تعريفك للمصطلح. فعلى الرغم من عدم وجود تعريف مقبول عالمياً، إلا أن أحد التعريفات المشتركة مستوحى من كتاب صدر عام 1971، من تأليف عالم الحاسوب هارولد ستون، الذي يقول إن “الخوارزمية هي مجموعة من القواعد التي تحدد بدقة تسلسل العمليات”. يغطي هذا التعريف كل شيء بدءاً من الوصفات وحتى الشبكات العصبونية المعقدة، وبالتالي فإن سياسة التدقيق القائمة على هذا الأساس ستكون واسعة بشكل مثير للضحك.
في مجالي الإحصاءات والتعلم الآلي، غالباً ما نفكر في الخوارزمية باعتبارها مجموعة التعليمات التي ينفذها الحاسوب للتعلم من البيانات. وفي هذين المجالين، عادة ما تسمى المعلومات المنظمة الناتجة: نموذجاً. قد تبدو المعلومات التي يتعلمها الحاسوب من البيانات، من خلال الخوارزمية، مثل “أوزان” يمكن بواسطتها مضاعفة كل عامل من عوامل المدخلات، أو قد تكون أكثر تعقيداً بكثير. وقد يختلف أيضاً مدى تعقيد الخوارزمية نفسها. وفي نهاية المطاف، تعتمد تأثيرات هذه الخوارزميات على البيانات التي يتم تطبيقها عليها، والسياق الذي يتم فيه نشر النموذج الناتج؛ فقد يكون للخوارزمية نفسها تأثيرٌ إيجابي صافٍ عند تطبيقها في أحد السياقات، وتأثير مختلف تماماً عند تطبيقها في سياق آخر.
في مجالات أخرى، فإن ما أشرنا إليه في الأعلى باعتباره نموذجاً يمثل في حد ذاته خوارزمية. وعلى الرغم من أن هذا أمر محيِّر، إلا أنه دقيق أيضاً بموجب التعريف الأوسع: فالنماذج عبارة عن قواعد (تعلمت بواسطة خوارزمية تدريب حاسوبية بدلاً من وضعها مباشرة من قِبل البشر) تحدد تسلسل العمليات. على سبيل المثال، أشارت وسائل الإعلام في المملكة المتحدة، العام الماضي، إلى فشل “خوارزمية” في إعطاء درجات عادلة للطلاب الذين لم يتمكنوا من أداء اختباراتهم بسبب جائحة كوفيد-19. وبالطبع فإن ما كانت تتحدث عنه تلك التقارير كان النموذج؛ أي: مجموعة التعليمات التي حولت المدخلات (أداء الطالب السابق أو تقييم المعلم له) إلى نتائج (درجة).
يبدو أن ما حدث في ستانفورد هو أن البشر -بما في ذلك علماء الأخلاقيات- جلسوا وحددوا سلسلة العمليات التي يجب أن يستخدمها النظام لتحديد ما إذا كان ينبغي أن يكون هذا الشخص من بين أول من سيحصلون على اللقاح، وذلك على أساس مدخلات مثل عمر الموظف والقسم الذي يعمل به. وبحسب ما نعرفه، فإن هذا التسلسل لم يكن يستند إلى أحد إجراءات التقدير التي تم تحسينها من أجل تحقيق هدف كمي، وإنما كان مجموعة من القرارات المعيارية الخاصة بكيفية تحديد أولوية تلقي اللقاحات، وإضفاء الصبغة الرسمية عليها بلغة الخوارزمية. وفي المصطلحات الطبية وبحسب التعريف الواسع، يصنف هذا النهج على أنه خوارزمية على الرغم من أن الذكاء الوحيد المعني هنا هو الذكاء البشري.
التركيز على التأثير وليس المدخلات
يفكر المشرعون ملياً أيضاً في ماهية الخوارزمية. وقد استخدم مشروع قانون المساءلة الخوارزمية -المعروف باسم (HR2291) الذي تم طرحه في الكونجرس الأميركي عام 2019- مصطلحَ “نظام اتخاذ القرار المؤتمت”، وعرفه على أنه “عملية حاسوبية تتضمن عملية مستمدة من التعلم الآلي أو الإحصاءات أو غيرها من تقنيات معالجة البيانات أو الذكاء الاصطناعي، تتخذ قراراً أو تسهل عملية اتخاذ القرار البشري، بشكل يؤثر على المستهلكين”.
وعلى نحو مماثل، تدرس مدينة نيويورك مشروع القانون 1894، الذي من شأنه أن يستحدث إجراء عمليات تدقيق إلزامية على “أدوات اتخاذ قرارات التوظيف المؤتمتة”، التي تُعرّف بأنها “أي نظام تخضع وظيفته لنظرية إحصائية، أو الأنظمة التي يتم تحديد معاييرها بواسطة مثل هذه الأنظمة”. وعلى الرغم من أن كلاً من مشروعي القانونين يفرضان عمليات تدقيق، إلا أنهما لا يقدمان سوى مبادئ توجيهية عالية المستوى حول ماهية هذا التدقيق.
ومع وضع صناع القرار في كلٍ من الحكومة والصناعة معاييرَ لعمليات التدقيق الخوارزمي، من المرجح أن تنشأ خلافات حول ما يمكن اعتباره خوارزمية. وبدلاً من محاولة الاتفاق على تعريف مشترك لـ “الخوارزمية” أو الاتفاق على تقنية تدقيق عامة محددة، نقترح تقييم الأنظمة المؤتمتة بصورة رئيسية استناداً إلى تأثيرها. فمن خلال التركيز على النتائج بدلاً من المدخلات، يمكننا أن نتجنب المناقشات التي لا داعي لها حول التعقيدات التقنية. ما يهمنا هو احتمال وقوع الضرر، بغض النظر عما إذا كنا نناقش معادلة جبرية أو شبكة عصبونية عميقة.
يُعد التأثير عاملاً حاسماً في التقييم في مجالات أخرى، حيث تم تضمينه في نموذج تقييم المخاطر الكلاسيكي في مجال الأمن السيبراني دريد (DREAD)، الذي تم تعميمه لأول مرة بواسطة شركة مايكروسوفت في السنوات الأولى من القرن الواحد والعشرين، ولا يزال يُستخدم في بعض الشركات. يشير الحرف “A” في كلمة (DREAD) إلى الطلب من مقيّمي التهديدات تحديد كمية “المستخدمين المتضررين”، من خلال طرح سؤال عن عدد الأشخاص الذين سيعانون من تأثير إحدى نقاط الضعف المحددة. كما أن تقييمات الأثر شائعة أيضاً في مجالات حقوق الإنسان وتحليلات الاستدامة، وقد رأينا بعض المطورين الأوائل لتقييم تأثير الذكاء الاصطناعي ينشئون نماذج تقييم مماثلة. على سبيل المثال، يضع تقييم التأثير الخوارزمي في كندا درجة تستند إلى أسئلة نوعية على غرار “هل العملاء في هذا النوع من الأعمال معرضون للخطر بشكل خاص؟ (نعم أم لا)”.
ما يهمنا هو احتمال وقوع الضرر، بغض النظر عما إذا كنا نناقش معادلة جبرية أو شبكة عصبونية عميقة.
ــــــــــــــــــ
من المؤكد أن ثمة صعوبات في تضمين مصطلح فضفاض التعريف مثل “التأثير” في أي تقييم. وفي وقت لاحق، تم استكمال إطار دريد أو الاستعاضة عنه بإطار سترايد (STRIDE)، وهو ما يرجع جزئياً إلى التحديات التي واجهت التوفيق بين المعتقدات المختلفة المتعلقة بما تنطوي عليه عملية نمذجة التهديدات. وتوقفت شركة مايكروسوفت عن استخدام دريد عام 2008.
وفي مجال الذكاء الاصطناعي، عرضت المؤتمرات والدوريات العلمية بالفعل بيانات التأثير بدرجات متفاوتة من النجاح والجدل. ومع ذلك، فإنها بعيدة كل البعد عن أن تكون مضمونة، حيث يمكن بسهولة التلاعب في تقييمات الأثر ذات الطابع الثابت تماماً، في حين أن التعريف مفرط الغموض قد يؤدي إلى تقييمات تعسفية أو مطولة بشكل لا يصدق.
ومع ذلك، فإنها خطوة مهمة إلى الأمام. لا ينبغي أن يكون مصطلح “الخوارزمية” -مهما كان تعريفه- درعاً لإعفاء البشر -الذين صمموا ونشروا أي نظام- من مسؤولية عواقب استخدامه. وهذا هو السبب الذي يجعل عامة الناس يطالبون على نحو متزايد بالمساءلة الخوارزمية، ويتيح مفهوم التأثير أرضية مشتركة مفيدة لمختلف المجموعات التي تعمل على تلبية هذا الطلب.
كريستيان لوم هي أستاذة مساعدة باحثة في قسم علوم الحاسوب والمعلومات بجامعة بنسلفانيا.
رومان تشودري هي مديرة فريق أخلاقيات الآلة والشفافية والمساءلة (META) في تويتر. وشغلت سابقاً منصب الرئيس التنفيذي ومؤسس منصة باريتي (Parity)، وهي منصة تدقيق خوارزمي، ورائدة في مجال الذكاء الاصطناعي المسؤول في أكسنتشر.