التعلم الآلي التشاركي قد يتحول إلى بدعة خطيرة لإضفاء الشرعية على الظلم

5 دقائق
مصدر الصورة: إم إس تك/ غيتي إيميدجيز، أنسبلاش

يتنبَّه مجتمع الذكاء الاصطناعي أخيراً إلى حقيقة أن التعلم الآلي قد يسبب ضرراً على وجه الخصوص للفئات المضطهدة والمحرومة بالفعل، ويعود الفضل في هذه الاستفاقة إلى مجموعة من النشطاء والمنظِّمين الذين نشكرهم على جهودهم. حالياً، يتحرَّى الباحثون والأكاديميون في مجال التعلم الآلي عن طرق لجعل الذكاء الاصطناعي أكثر عدلاً وشفافيةً وخضوعاً للمساءلة. وفي الآونة الأخيرة، يبحثون أيضاً عن طرقٍ تجعله أكثر تشاركية.

وقد كانت ورشة "الأساليب التشاركية في التعلم الآلي" أحد أكثر الأحداث إثارة وحضوراً في المؤتمر الدولي للتعلم الآلي في يوليو. وتناولت ورشة العمل هذه تطلعات المجتمع لبناء أنظمة خوارزمية أكثر ديمقراطية وتعاونية وإنصافاً، من خلال دمج الأساليب التشاركية في تصميمها. تهدف هذه الأساليب إلى إشراك أولئك الذين يتفاعلون مع نظام خوارزمي ويتأثرون به في عملية التصميم. على سبيل المثال، يتم التماس مساعدة الممرضات والأطباء في تطوير أداة للكشف عن الإنتان.

وعلى الرغم من الحاجة الماسة إلى هذا النوع من التشاركية في مجال التعلم الآلي الذي قد يتسم بهرمية وتجانس مفرط، لكنها ليست حلاً سحرياً؛ في الحقيقة، قد يتحول "اجترار المشاركة" إلى البدعة الخطيرة التالية في هذا المجال. وهذه هي النقطة التي أتناولها مع إيمانويل موس وأوليتان أومولو ولورا فورلانو المشاركين في تأليف ورقتنا البحثية الأخيرة التي تحمل عنوان: "المشاركة ليست إصلاحاً تصميمياً للتعلم الآلي".

يؤدي تجاهل أنماط القمع والامتيازات الممنهجة إلى إنتاج أنظمة تعلم آلي غير خاضعة للمساءلة وتتسم بالغموض وعدم الإنصاف. لقد تغلغلت هذه الأنماط في المجال على مدار الثلاثين عاماً الماضية. وفي الوقت نفسه، شهد العالم تصاعداً هائلاً في عدم المساواة في الثروة وتغير المناخ الناجم عن الوقود الأحفوري. تعتبر هذه المشاكل متجذرة في إحدى الديناميكيات الأساسية للرأسمالية، ألا وهي: الاستخلاص. وعلاوة على ذلك، غالباً ما تستند المشاركة إلى نفس المنطق الاستخلاصي، خاصة عندما يتعلق الأمر بالتعلم الآلي.

المشاركة ليست مجانية

لنبدأ بهذه الملاحظة: تمثل المشاركة بالفعل جزءاً كبيراً من التعلم الآلي، ولكن بطرق إشكالية. وتتمثل إحدى هذه الطرق في اعتبار المشاركة عملاً.

يلعب العديد من المشاركين دوراً هاماً في إنتاج البيانات المستخدَمة لتدريب نماذج التعلم الآلي وتقييمها، سواء تم الاعتراف بعملهم أو لا؛ إذ يتم جمع الصور التي التقطها شخص ما ونَشرها على الويب، ويقوم العمال ذوو الأجور المنخفضة على منصات مثل أمازون ميكانيكال تورك (Amazon Mechanical Turk) بإضافة تعليق توضيحي إلى هذه الصور لتحويلها إلى بيانات تدريب. كما يقوم المستخدمون العاديون لمواقع الويب بإضافة هذه التعليقات التوضيحية من خلال إتمامهم إدخال رمز التحقق (reCAPTCHA). وهناك العديد من الأمثلة لما يُعرف باسم العمل الشبحي، وهو المصطلح الذي تطلقه الأخصائية بعلم الإنسان ماري جراي على كل الأعمال التي تتم خلف الكواليس والتي تجعل النظام يبدو كأنه يؤدي وظائفه بشكل مؤتمَت. لا يتم تقديم مقابل مالي عادل للكثير من أعمال المشاركة هذه، بل وفي حالات كثيرة لا يتم الاعتراف بها.

من ناحية أخرى، تعد المشاركة باعتبارها استشارة اتجاهاً رائجاً في مجالات مثل التصميم الحضري، ونلاحظ تنامي هذا التوجه في مجال التعلم الآلي أيضاً. لكن فعالية هذه الطريقة محدودة؛ فهي قصيرة الأمد بشكل عام ولا تتضمن خططاً لتأسيس شراكات هادفة على المدى الطويل. ومن شأن هواجس الملكية الفكرية أن تجعل إجراء اختبارات حقيقية لهذه الأدوات أمراً صعباً. وفي المحصلة، نادراً ما يحقق هذا الشكل من المشاركة مستوى أداء ناجح.

ولعل أكثر فكرة تحمل إمكانات واعدة هي فكرة المشاركة باعتبارها عدالة. ووفقاً لهذه المقاربة، يعمل جميع أعضاء عملية التصميم معاً في إطار علاقات وثيقة وبتواصلٍ متكرر. تعد المشاركة -باعتبارها عدالة- التزاماً طويل الأمد يركز على تصميم المنتجات الذي يتولى أشخاص من خلفيات ومجتمعات متنوعة عملية توجيهه، بما في ذلك مجتمع ذوي الاحتياجات الخاصة الذي لطالما لعب دوراً رائداً في هذا المجال. وعلى الرغم من الأهمية الاجتماعية والسياسية لهذا المفهوم، لكن بِنى السوق الرأسمالية تجعل من شبه المستحيل تنفيذه على نحو سليم.

يوسِّع التعلم الآلي الأولويات العريضة لصناعة التكنولوجيا، التي تركز على اتساع النطاق والاستخلاص. وهذا يعني أن التعلم الآلي التشاركي يناقض نفسه حالياً؛ إذ إن معظم أنظمة التعلم الآلي تتمتع بشكل افتراضي بالقدرة على المراقبة والقمع والإكراه (بما في ذلك في مكان العمل). كما تمتلك هذه الأنظمة وسائل لتصنيع الموافقة؛ على سبيل المثال، من خلال مطالبة المستخدمين بالاشتراك في أنظمة المراقبة من أجل استخدام تقنيات معينة، أو من خلال تنفيذ الإعدادات الافتراضية التي تردعهم عن ممارسة حقهم في الخصوصية.

وإذا ما أخذنا ذلك في الحسبان، فليس من المستغرب أن يفشل التعلم الآلي في أخذ ديناميكيات القوة الحالية بعين الاعتبار، وأن يتبع نهجاً استخلاصياً للتعاون. وإذا لم نتوخَّ الحذر، يمكن أن يتبع التعلم الآلي التشاركي مسار أخلاقيات الذكاء الاصطناعي ويصبح مجرد بدعة أخرى تُستخدم لإضفاء الشرعية على الظلم.

طريقة أفضل

كيف نستطيع تجنّب هذه الأخطار؟ لا توجد إجابة بسيطة، لكن فيما يلي أربعة اقتراحات:

الاعتراف بالمشاركة باعتبارها عملاً؛ حيث يستخدم العديد من الأشخاص بالفعل أنظمة التعلم الآلي أثناء ممارسة حياتهم اليومية. ويحافظ الكثير من هذا العمل على هذه الأنظمة ويحسنها، وبالتالي فهو ذو قيمة بالنسبة لمالكي الأنظمة. ومن أجل الاعتراف بذلك، لا بدّ من طلب موافقة جميع المستخدمين وتزويدهم بطرق لإلغاء الاشتراك في أي نظام، وإذا اختاروا المشاركة فيجب أن يُعرض عليهم تعويض مادي. قد ينطوي القيام بذلك على توضيح متى وكيف سيتم استخدام البيانات التي يتم إنشاؤها بواسطة سلوك المستخدم لأغراض التدريب (على سبيل المثال، عبر لافتة في خرائط جوجل أو إشعار باشتراك المستخدم). وقد ينطوي أيضاً على توفير الدعم المناسب لمراقبي المحتوى، وتعويض ممارسي العمل الشبحي بشكل عادل، وتطوير أنظمة المكافآت النقدية أو غير النقدية لتعويض المستخدمين مقابل بياناتهم وجهودهم.

جعل المشاركة مرتبطة بسياق محدد؛ فلا بدّ أن يكون التقنيون مطلعين على السياقات المحددة التي يعملون ضمنها، بدلاً من محاولة استخدام نهج موحد لجميع الحالات. على سبيل المثال، عند تصميم نظام للتنبؤ بعنف الشباب والعصابات، يجب أن يثابر التقنيون من أجل إعادة تقييم الطرق التي يبنون عليها اعتماداً على التجارب الحية والخبرات في المجال المحدد، والتعاون مع الأشخاص الذين يصمِّمون الأنظمة لصالحهم. وتنبع الأهمية الخاصة لهذا الأمر من حقيقة أن سياق مشروع ما يتغير بمرور الوقت. يمكن لتوثيق التحولات -حتى الصغيرة منها- في العملية والسياق أن يشكل قاعدة معرفية للمشاركة الفعالة طويلة الأمد. على سبيل المثال، هل ينبغي استشارة الأطباء فقط في تصميم نظام التعلم الآلي للرعاية السريرية، أم ينبغي تضمين الممرضات والمرضى أيضاً؟ إن توضيح سبب وكيفية مشاركة مجتمعات معينة يجعل هذا النوع من القرارات والعلاقات شفافاً وخاضعاً للمساءلة وقابلاً للتنفيذ.

التخطيط لمشاركة طويلة الأمد منذ البداية؛ فمن المرجح أن يواصل الأشخاص انخراطهم في العمليات بمرور الوقت إذا كانوا قادرين على مشاركة المعرفة واكتسابها، بدلاً من استخلاصها منهم فحسب. لكن قد يكون من الصعب تحقيق ذلك في التعلم الآلي، خاصةً في حالات التصميم ذات الملكية الخاصة. في هذه الحالة، يجدر بنا الاعتراف بالتوترات التي تضفي تعقيداً على المشاركة طويلة المدى في التعلم الآلي، والاعتراف بأنه لا يمكن أن يتسع نطاق التعاون والعدالة بطرق خالية من الاحتكاك وبذل الجهود. تتطلب هذه القيم صيانة مستمرة، ويجب التعبير عنها وتوضيحها مراراً وتكراراً في سياقات جديدة.

التعلم من أخطاء الماضي؛ حيث إن تكرار طرق التفكير التي أنتجت في الأصل تقنيات ضارة قد تقود إلى المزيد من الأذى. وبصفتنا باحثين، فنحن في حاجة إلى تعزيز قدرتنا على التفكير والتخطيط المتقن عبر مختلف التطبيقات والمهن. ولتسهيل الوصول إلى هذه الغاية، يمكن لمجتمع التعلم الآلي والتصميم تطوير قاعدة بيانات قابلة للبحث من أجل تسليط الضوء على إخفاقات المشاركة في التصميم (مثل مشروع الواجهة البحرية لشركة سايدووك لابز في تورنتو). ويمكن مقارنة هذه الإخفاقات مع المفاهيم الاجتماعية الهيكلية (مثل القضايا المتعلقة بعدم المساواة العرقية). ويجب أن تغطي قاعدة البيانات هذه مشاريع التصميم في جميع القطاعات والمجالات، وليس فقط تلك الموجودة في التعلم الآلي، وأن تقر صراحةً بالقيم المفقودة والمتطرفة؛ إذ غالباً ما تشكِّل هذه الحالات المتطرفة أكبر مصدر للتعلم منها.

إنه لأمر مثير أن نرى مجتمع التعلم الآلي يتبنى مسائل العدالة والإنصاف. لكن يجب ألا يقتصر اعتماد الإجابات لهذه القضايا على المشاركة وحدها؛ لقد ابتُلي مجتمع التكنولوجيا بالرغبة في إيجاد حل سحري منذ فترة طويلة جداً، وقد حان الوقت لاحتضان التعقيد الذي يأتي متحدياً المنطق الرأسمالي الاستخلاصي للتعلم الآلي.

المحتوى محمي