حظي التحيز في أنظمة الذكاء الاصطناعي مؤخراً باهتمام بحثي كبير، فهناك قلق كبير سواء لدى الباحثين في هذا المجال أو المشرعين أو حتى المستخدمين من أن تقوم أنظمة الذكاء الاصطناعي باتخاذ قرارات متحيزة ضد ما يعرف بالخصائص المحمية Protected Attributes، مثل: الجنس والعرق والعمر وغيرها.
أغلب هذا الاهتمام بدأ بعد تقرير أعده فريق في "برو بابليكا دوت كوم" (ProPublica.com) عام 2016 لتقييم أنظمة قضائية تستخدم في كثير من المحاكم الأميركية للتنبؤ بإمكانية ارتكاب المدان جرائم في المستقبل القريب بعد الإفراج المشروط عنه، وكانت النتائج حسب التقرير أن هذه الأنظمة تميل لإعطاء المدانين من ذوي البشرة السمراء درجة احتمالية أكبر لارتكاب جريمة أخرى في المستقبل مقارنة بالمدانين من ذوي البشرة البيضاء. وحسب التقرير، لم يكن ذلك يعكس الواقع بالضرورة.
من جهة أخرى، أوقفت شركة أمازون نظام توظيف داخلي لديها عام 2018 لأنه كان متحيزاً ضد المتقدمات من النساء على الوظائف التقنية، إذ كان يميل لإعطاء تقييم أعلى للمتقدمين من الرجال مقارنة بنظائرهم من النساء.
اقرأ أيضاً: باحثون من إم آي تي يطورون طريقة مبتكرة لتقليل تحيز الذكاء الاصطناعي
وهذان المثالان يوضحان الفكرة المراد عرضها هنا حول التحيز في أنظمة الذكاء الاصطناعي على أساس الجنس أو العرق. ولكن كيف يظهر مثل هذا التحيز في الآلة التي يفترض منها العمل بدقة وعدالة وبتجرد من المشاعر والعواطف؟
للإجابة عن هذا السؤال لا بُدّ أن نعرف كيف تعمل هذه الأنظمة.
إن الأنظمة التي ذكرناها هنا وغيرها الكثير من أنظمة الذكاء الاصطناعي تندرج تحت ما يعرف بنماذج تعلم الآلة Machine Learning Models؛ أي أن النظام ليس نظاماً مبرمجاً بأوامر محددة لاتخاذ القرار، بل يتم بناء هذه النماذج بتدريب النموذج على بيانات سابقة Data لنفس المشكلة المراد حلها، ويتم تحديد هذه البيانات عن طريق الجهة التي قامت ببناء النموذج. فمثلاً في نظام التوظيف في شركة أمازون، كان قد تم تدريب النموذج على بيانات توظيف سابقة لدى أمازون للعشر سنوات التي سبقت بناء النظام، أي أن نظام التوظيف الجديد قام بدراسة وتحليل بيانات وطرق التوظيف التي كانت تقوم بها الشركة وأخصائيو التوظيف فيها لمدة العشر سنوات التي سبقت بناء النموذج، ويحاول النموذج التدرب باستخراج الأنماط التي يمكن أن يكتشفها في هذه البيانات لمساعدته في اتخاذ القرارات المستقبلية.
بهذه الطريقة يحاول النظام محاكاة الطريقة البشرية في التوظيف التي نعتقد أنها الطريقة المثلى. ومن هنا نفهم أنه إذا رُصِد أي تحيز في نظام التوظيف فلا بُدّ أن يكون التحيز موجوداً فعلاً في البيانات التي تدرب عليها النظام، أي أن تحيز النظام سيكون مجرد انعكاس لتحيز البشر، كما في حالة التحيز ضد النساء للتوظيف بوظائف تقنية في شركة أمازون. فهل كان التحيز موجوداً لدى الشركة قبل بناء هذا النظام؟
الجواب ببساطة تعكسه نتائج التوظيف السابقة لدى الشركة، والتي استخدمها النظام في مرحلة التدريب Training Stage. فإذا نظرنا للوظائف التقنية التي كان النظام يحاول أن يقبل الموظفين بها، سنجد أن هذه الوظائف مُسَيطر عليها من قِبل الرجال بشكل كبير. وهذا يفسّر لنا كيف حدد النظام أفضلية الرجال لدى الشركة في هذه الوظائف على النساء، ومن هنا جاء التحيز.
اقرأ أيضاً: لماذا لا يستطيع الذكاء الاصطناعي حل مشاكل التحيز في الدرجات الائتمانية؟
منذ بزوغ فجر الذكاء الاصطناعي ونحن نهدف لبناء أنظمة ذكية تحاكي قدرة الإنسان الإدراكية، ولذلك وضعنا قدرة الإنسان الإدراكية كمعيار رئيسي لقياس مدى نجاح هذه الأنظمة. انظر مثلاً لأول بحثٍ نشره العالم البريطاني ألان تورينج (Alan Turing) عام 1950 عن ذكاء الآلة، عندما وضع نموذجه الأفضل لذكاء الآلة The Imitation Game والذي عُرف فيما بعد باختبار تورينج Turing Test. في هذا النموذج، عرّف تورينج النظام الذكي ضمنيّاً في بحثه بأنه النظام الذي يستطيع أن يوهم المحقق أنه إنسان. ولذلك فقد كان ذكاء الإنسان وقدراته الإدراكية المعيارين الرئيسيين لذكاء الآلة، على الرغم من وجود ما يعرف بالتحيز الإدراكي Cognitive Bias لدى الإنسان كما هو معروف، ولذلك فلن يكون غريباً أن تَرث أنظمة الذكاء الاصطناعي هذا التحيز الادراكي عندما تريد محاكاة القدرة الإدراكية لدى الإنسان. ومن هنا نستنتج أننا لن نستطيع فعليّاً القضاء على تحيز الآلة ما دمنا نغذّيها ببيانات متحيزة. ويمكن القول: Bias In, Bias Out، أو ما يمكن التعبير عنه "ادخل بيانات متحيزة وستحظى بأنظمة متحيزة".
وبما أن التحيز سيكون موجوداً في الأنظمة شئنا أم أبينا فيبقى السؤال: كيف نستطيع اكتشاف التحيز؟ وكيف نقيسه؟ وكيف نتعامل معه؟
ولأن الموضوع كبير جداً فلن أحاول الاجابة عن السؤالين الأولين في هذه المساحة، فقد أجبت عنهما في بحثي العلمي المنشور حول هذا الموضوع والذي استقيت في هذا المقال بعض ما ورد فيه، لمن أراد الاستزادة.
اقرأ أيضاً: الذكاء الاصطناعي في الطب: خطر التحيز يهدد تطبيقاته الواسعة
ولكن كيف نتعامل مع التحيز؟
للإجابة عن هذا السؤال يجب أن نذكر المصطلحين المهمين اللذين يتكرران لدى الباحثين في هذا المجال ويستخدمان للإشارة للشيء ذاته. المصطلح الأول هو التحيز Bias، أما المصطلح الثاني هو عدم العدالة Unfairness. إن استخدام هذين المصطلحين للإشارة لنفس الشيء، من وجهة نظري، خطأ علمي منطقي للتأسيس لهذا المفهوم. هذا الخطأ سيقود للتدخل البشري في كثير من نتائج هذه الأنظمة بشكل يزيد من مشكلاتها، وعدم عدالة نتائجها.
إن التحيز Bias، على العكس من عدم العدالة، يصدر من النظام عند الحفاظ على جميع الخصائص المحمية Protected Attributes أو بعضها كما هي، واستخدامها في مرحلة التدريب دون التلاعب بها أو تغيير قيمها على حساب بعض القيم في نفس الخصائص، فيجد النظام في البيانات اختلافاً في التوزيع الأساسي Underlying Distribution للقيم المختلفة للخصائص المحمية في البيانات بحيث يستخرج نمطاً مخصّصاً لكل قيمة من القيم مختلفاً ولو بشكلٍ طفيف عن القيم الأخرى لنفس الخصائص.
أمَّا عدم العدالة Unfairness في المقابل فسيكون عندما نقوم عمداً بجعل النظام يفضّل قيمة من القيم على حساب القيم الأخرى للخصائص المحمية.
اقرأ أيضاً: ماذا لو كانت خوارزميات الكشف عن التحيز العرقي تتسم هي نفسها بالتحيز؟
دعونا نعود للمثالين السابقين ليتضح الفرق بشكل جلي، إن التحيز في نظام التوظيف هو أن نعطي النظام جميع البيانات للأعوام السابقة ونجد أن النظام يفضّل الرجال على النساء لأن النمط السائد في بيانات التوظيف هو أن فرصة الرجال أكبر للحصول على الوظيفة. ولذلك سنجد أن النظام سيفهم أن النساء غير مفضلات لهذه الوظيفة، وسيجد أن المشترك بينهما هو الجنس "أنثى" أو عمل المتقدم في جهات نسائية، كالأندية الطلابية النسائية، مثلاً. ولكن إن قمنا عمداً بتعديل معايير التوظيف أو ضبط قيم المتغيرات Parameter Tuning لتفضيل المتقدمات من النساء على الرجال فإن هذا يمكن أن ينطبق عليه عدم العدالة Unfairness. وهذا ما قصدته عندما قلت إن الخلط بين المصطلحين سيبرر كثيراً من التدخلات البشرية في نتائج وقرارات الأنظمة، وهو ما قد يؤدي لنتائج في ظاهرها مبررة ولكنها تفتقد للعدالة.
إن بعض الحلول المقترحة للقضاء على التحيز بكل تأكيد ستؤدي كذلك لعدم العدالة، أي كأن نقول للنظام القضائي، لتخفيف التحيز يجب أن نقوم برفع درجات مخاطر المدانين ذوي البشرة البيضاء وتقليل درجة خطورة غيرهم من المدانين الآخرين.
اقرأ أيضاً: كيف يتحيز الذكاء الاصطناعي ولماذا يصعب إصلاحه؟
هذا بكل تأكيد ليس حلاً منطقياً. ولكن الحل المنطقي يكون بإخفاء الخصائص المحمية Protected Attributes كلياً وعدم تضمينها في البيانات في مرحلة التدريب، وإخفاء جميع الخصائص ذات الدلالة على هذه الخصائص، حتى نحصل على أنظمة غير متحيزة ونقلل بقدر المستطاع من التدخل البشري وتأثيره المباشر على نتائج هذه الأنظمة وقراراتها.