مايكروسوفت تبتكر “عرافة” للقبض على خوارزميات الذكاء الاصطناعي المتحيزة

2 دقائق
ناون بروجيكت/ أندريس كيرما/ مايكروسوفت تيك نت

تعمل مايكروسوفت على بناء أداة تكشف التحيز بشكل آلي في مجموعة من خوارزميات الذكاء الاصطناعي. ويعتبر هذا العمل الأجرأ حتى الآن في مجال أتمتة تحديد التحيز الذي يمكن أن يجد طريقه إلى التعلم الآلي، ويمكن أن يساعد الشركات على الاستفادة من الذكاء الاصطناعي دون الإجحاف بدون قصد بحق أشخاص محددين.

تتسابق الشركات التقنية الكبيرة فيما بينها على بيع تقنيات الذكاء الاصطناعي للاستخدام العام، والتي يمكن الوصول إليها عبر السحابة الإلكترونية. ومع استفادة المزيد من الزبائن من هذه الخوارزميات لأتمتة القرارات والتقييمات الهامة، أصبحت مسألة التحيز حساسة. ونظراً لسهولة تأثيره على نماذج التعلم الآلي، فقد تتحول أساليب أتمتة كشف التحيز إلى جزء هام من مجموعة أدوات الذكاء الاصطناعي.

يقول ريتش كارونا، باحث أساسي في مايكروسوفت يعمل في مشروع كشف التحيز: "إن مسائل الشفافية والوضوح والتفسير ما زالت جديدة في هذا المجال، لدرجة أنه لا يوجد الكثيرون من ذوي الخبرة الكافية لمعرفة ما يجب أن نبحث عنه، وأساليب تسلل التحيز إلى نماذجنا".

بدأت مسألة تحيز الخوارزميات تثير القلق بشكل متزايد بالنسبة للباحثين وخبراء التكنولوجيا، خصوصاً مع استخدام الخوارزميات لأتمتة القرارات الهامة، ما يتيح إمكانية أتمتة هذا التحيز أيضاً، وانتشاره على نطاق واسع، وصعوبة تمييزه من قبل ضحاياه.

يقول كارونا أن هذا المنتج الجديد من مايكروسوفت سيساعد باحثي الذكاء الاصطناعي على كشف المزيد من حالات التحيز، ولكن ليس جميعها: "بالطبع، لا يمكن أن نتوقع أداء مثالياً، وسيبقى هناك بعض التحيز الذي لا يمكن كشفه أو إزالته، ولكننا نسعى إلى أن نفعل كل ما بالإمكان". ويضيف: "أهم ما يمكن أن تفعله الشركات الآن هو تدريب وتثقيف العاملين لديها وتعريفهم بالأساليب الكثيرة التي يمكن أن يظهر بها التحيز، وإيجاد أدوات لجعل النماذج أسهل على الفهم، بحيث يمكن كشف التحيز فيها بسهولة أكبر".

أعلنت شركة فيسبوك عن أداة خاصة بها لكشف التحيز في مؤتمرها السنوي للمطورين في 2 مايو. تقوم الأداة، والمسماة فيرنيس فلو، بإعطاء تحذير بشكل آلي في حال كانت الخوارزمية تتخذ قراراً غير عادل بالنسبة لشخص ما بناء على العرق، أو الجنس، أو العمر. وتقول الشركة أنها بحاجة إلى هذه الأداة بسبب تزايد استخدام الذكاء الاصطناعي من قبل العاملين لديها لاتخاذ قرارات هامة.

يقول بين يو، بروفسورة في جامعة كاليفورنيا في بيركلي، أن الأدوات التي تعمل عليها مايكروسوفت وفيسبوك تبدو خطوة في الاتجاه الصحيح، ولكنها قد لا تكون كافية. وتقترح يو أن الشركات الكبيرة يجب أن تستعين بخبراء خارجيين لتقييم هذه الخوارزميات لإثبات أنها ليست متحيزة: "يجب أن يتحقق شخص آخر من عمل خوارزميات فيسبوك، لأنه يجب ألا تكون سراً مغلقاً أمام الجميع".

المحتوى محمي