هل يمكن تصميم ذكاء اصطناعي لا يتصف بالتحيز على أساس الإعاقة؟

4 دقائق
مصدر الصورة: دوج مالوني/ أنسبلاش

يعتبر التحيز من أشهر المشاكل التي يعاني منها الذكاء الاصطناعي، خصوصاً فيما يتعلق بالعرق أو الجنس. ومن المحتمل أنك قد رأيت بعض العناوين الإخبارية حول هذا الموضوع، مثل أنظمة التعرف على الوجوه التي تفشل في التعرف على النساء من الأصول الأفريقية، أو أدوات التوظيف المؤتمتة التي تتجاوز النساء في اختياراتها.

وعلى الرغم من المحاولات الجادة للباحثين لمعالجة بعض أكثر تلك المسائل إلحاحاً (وفضائحية)، إلا أن هناك مجموعة واحدة من الأشخاص ما زالت لم تحظ بالاهتمام الكافي، وهم أصحاب الهِمَم. وعلى سبيل المثال، فإن السيارات ذاتية القيادة تعمل بخوارزميات تعتمد على معلومات التدريب حتى تعرف شكل المشاة بحيث تتفاداهم السيارة، وإذا لم تتضمن معلومات التدريب هذه شكل الأشخاص في الكراسي المتحركة، فقد تُؤدِّي هذه التكنولوجيا إلى تهديد حياتهم.

وبالنسبة لشاري تريوين (الباحثة في فريق قيادة إمكانية الوصول في آي بي إم)، فإن هذا الأمر غير مقبول على الإطلاق، وهي تعمل -ضمن مبادرتها الجديدة- على دراسة عمليات تصميمية جديدة وأساليب تقنية للتخفيف من آثار الانحياز ضد أصحاب الهمم. وقد تحدثت معنا حول بعض التحديات، إضافة إلى بعض الحلول المحتملة.

تم تعديل المقابلة من أجل التحكم في الطول وزيادة التوضيح.

لمَ تُعتبر العدالة بالنسبة لأصحاب الهمم مشكلة مختلفة عن العدالة المتعلقة بصفات أخرى مثل العرق والجنس؟

تؤثر الإعاقة على الناس بأشكال متنوعة ومعقدة إلى حد كبير، وتقوم الكثير من الأنظمة بنمذجة العرق أو الجنس على شكل متحول بسيط مع عدد صغير من القيم المحتملة، لكن فيما يتعلق بالإعاقة، هناك الكثير من الأشكال المختلفة ودرجات الإصابة المختلفة؛ فبعض هذه الإعاقات دائم، وبعضها الآخر مؤقت، وقد ينضم أي منا إلى هذه الفئة أو يتركها في أي وقت من حياته، وبالتالي فهي شيء متغير وديناميكي.

وتبلغ نسبة الإعاقة في الولايات المتحدة حالياً حوالي 20% بجميع أشكالها، ولهذا فهي منتشرة بشكل واضح، ومع ذلك من الصعب حصرها بمتحول بسيط مع عدد صغير من القيم المحتملة، فقد نجد نظاماً يتحيز ضد المكفوفين ولكن ليس ضد الصم مثلاً، ولهذا فإن التأكد من عدالة النظام في هذه الحالة سيصبح أكثر صعوبة بكثير.

كما تتصف معلومات الإعاقة بحساسية عالية، ويميل الناس إلى تجنب الكشف عنها قدر الإمكان أكثر من معلومات الجنس أو العمر أو العرق، وفي بعض الأحيان يعتبر مجرد طلب هذه المعلومات مخالفاً للقانون؛ أي أن البيانات قد لا تكشف أي شيء -غالباً- عن مسألة إصابة الشخص بإعاقة من نوع ما أو عدم إصابته، مما يزيد أيضاً من صعوبة تحديد مدى عدالة النظام.

كنت سأسألك عن هذه النقطة. فقد أجمعنا -نحن البشر- على أن أفضل طريقة لتجنب التمييز على أساس الإعاقة هي عدم الكشف عن معلومات الإعاقة، فلماذا لا ينجح هذا الأسلوب مع أنظمة التعلم الآلي؟

أجل، هذا أول ما يتبادر إلى الأذهان: إذا لم يعرف النظام أي شيء عن وضع الإعاقة لدى الشخص، فمن المؤكد أنه سيكون عادلاً. ولكن المشكلة هي أن الإعاقة تؤثر في الكثير من الأحيان على أجزاء أخرى من المعلومات التي يتم تلقيمها للنموذج. ولنفرض مثلاً أنني أستخدم نظام قراءة الشاشة (المخصص للمكفوفين ومَن يعانون من مشاكل حادة في البصر) لتصفح الويب، وأنني أخوض اختباراً على الإنترنت للحصول على عمل، حينئذٍ إذا لم يكن برنامج الاختبار مصمماً بشكل جيد وقادراً على التواصل مع برنامجي لقراءة الشاشة، فسوف أحتاج إلى وقت طويل للتحرك على الصفحة قبل أن أتمكن من الإجابة عن السؤال، وإذا لم يُؤخذ هذا الوقت بعين الاعتبار أثناء تقييمي، فإن أي شخص مصاب بنفس الإعاقة ويستخدم نفس الأداة سيكون معرضاً للظلم من النظام، حتى لو لم يدرك النظام إصابتي بالعمى.

إذن، وبوجود الكثير من الاختلافات الدقيقة بين الأشكال المختلفة للإعاقة، هل من الممكن تحقيق العدالة بشكل فعلي؟

أعتقد أن التحدي الأكثر عمومية في أوساط الذكاء الاصطناعي هو كيفية التعامل مع الحالات الخاصة؛ لأن أنظمة التعلم الآلي تتعلم الأنماط السائدة، أليس كذلك؟ إنها تعدل نفسها وفقاً للأنماط السائدة، ولا تعامل الحالات الخاصة بأي طريقة مميزة. ولكن في أغلب الأحيان لا يتوافق أصحاب الهمم مع الأنماط السائدة، ويحكم نظام التعلم الآلي عليك بناء على من يعتقد أنهم يشبهونك، حتى لو لم يكن قد رأى أي شخص يشبهك فعلياً، وهو أسلوب عمل يعاني من محدودية أساسية فيما يتعلق بالمعاملة العادلة لأصحاب الهمم.

ويمكن معالجة الموضوع بشكل أفضل بكثير عن طريق الجمع ما بين التعلم الآلي وحل آخر، مثل طبقة إضافية من القواعد المنطقية. وهناك أيضاً بعض الأوضاع التي يمكن تحسينها دون شك عن طريق بناء مجموعة معلومات أكثر تنوعاً وشمولية، كما أن البعض يجري تجارب حول تقنيات تعتمد على التخلص من الكتلة الأساسية للبيانات وتدريب النظام بالاعتماد على الحالات الخاصة فقط، ويجري آخرون اختبارات على تقنيات تعلم مختلفة تقوم بتوجيه عملية التعلم نحو الحالات الخاصة بدلاً من المعيار السائد.

وأعتقد أن التفكير في مسألة الإعاقة سيدفعك نحو التفكير في مسألة التنوع لدى البشر وأهمية الحالات الخاصة، فإذا لم يكن لديك تنوع كافٍ من ناحية الجنس في مجموعة بياناتك، فمن الممكن إصلاح هذا بسهولة، ولكن تحقيق التنوع من ناحية الإعاقة ليس بنفس البساطة.

شاري تريوين، باحثة في فريق قيادة إمكانية الوصول في آي بي إم.
مصدر الصورة: تقدمة من آي بي إم

كيف يمكننا التعامل مع الخصوصية الشديدة التي يضفيها الناس على مسألة وضع الإعاقة؟

هذه مشكلة فعلية. فمن أجل اختبار عدالة النظام، نحن في حاجة إلى بعض البيانات، وعندما يقدم أصحاب الهمم هذه البيانات فهم يقدمون مساعدة كبيرة للمجتمع، ولكنهم يعرضون أنفسهم لبعض المشاكل على الصعيد الشخصي؛ حيث يمكن تمييزهم في أغلب الأحيان بسهولة، حتى لو كانت البيانات خالية من المعلومات الشخصية، لأنهم ببساطة متفردون إلى حد كبير. وما زلنا نعمل على طريقة للحد من هذه المشكلة.

ما أبرز مخاوفك حول هذه المشكلة؟

غالباً ما تركز أنظمة الذكاء الاصطناعي على تحسين شيء لا يتعلق بصالح الناس الذين يتأثرون بقراراتها، ولذلك يجب أن يكون لهذا التأثير حضورٌ أكبر في عملية التصميم، بحيث لا يقتصر عمل النظام على توفير المصاريف أو زيادة فعالية التعامل مع الأشخاص، وبالتالي فنحن نحتاج إلى أساليب جديدة لتقييم الأنظمة بحيث تأخذ بعين الاعتبار أثرها على المستخدم النهائي، خصوصاً إذا كان هذا المستخدم من مجموعة تعاني من مشكلة ما.

كيف يمكننا أن نحقق هذا؟

يمكن قياس هذا التأثير باختبار عدالة النظام، أو بأن نشمل المجموعة التي تعاني من المشكلة في عملية التصميم، ونصغي إلى مخاوفهم، ويمكن حتى أن نعتمد -بشكل مباشر- معياراً لرضا المساهمين، بحيث يمكن قياسه عبر المقابلات أو الاستبيانات أو أي شيء من هذا القبيل.

ما أكثر الأشياء التي تثير حماستك في هذا المجال البحثي؟

لقد بدأت تقنيات الذكاء الاصطناعي تغيِّر العالم بالنسبة لأصحاب الهمم عن طريق إعطائهم إمكانيات جديدة، مثل التطبيقات التي تخبرك عن الأشياء الموجودة في حقلك البصري عن طريق توجيه هاتفك الذكي إليها. وأعتقد أن تطوير أنظمة الذكاء الاصطناعي بطريقة صحيحة سيؤدي إلى ظهور فرصة حقيقية لتحسين الأنظمة التي كانت مبنية على البشر فقط.

إذن فإن هناك الكثير من التمييز والتحيز وسوء الفهم إزاء أصحاب الهمم في مجتمعنا الحالي، وإذا تمكنَّا من العثور على وسيلة لتصميم أنظمة ذكاء اصطناعي قادرة على القضاء على هذا النوع من التحيز، فسوف نتمكن من تغيير أسلوب التعامل مع أصحاب الهمم وتخفيف التمييز ضدهم.