يقول الخبر
أعلنت فيسبوك أنها تشكِّل فرقاً داخلية جديدة للبحث عن التحيز العرقي في الخوارزميات التي تشغِّل شبكتها الاجتماعية الرئيسية وإنستقرام، بحسب ما أوردته صحيفة وال ستريت. وعلى وجه الخصوص، ستتولى التحقيقات معالجة الآثار السلبية للتعلم الآلي -الذي قد ينطوي على تحيز مستتر في بيانات التدريب- على الأقليات السوداء واللاتينية وغيرها من الأقليات.
ما أهمية هذه الخطوة؟
خلال السنوات القليلة الماضية، سلطت أعداد متزايدة من الباحثين والناشطين الضوءَ على مشكلة التحيز في الذكاء الاصطناعي وتأثيره بشكل خاص على الأقليات. لقد تأخرت فيسبوك كثيراً في إجراء تقييم داخلي من هذا النوع؛ فهي تستخدم التعلم الآلي لتنسيق ومتابعة التجربة اليومية لمستخدميها، البالغ عددهم 2,5 مليار مستخدم. وعلى سبيل المثال، هناك بالفعل أدلة على أن خوارزميات عرض الإعلانات على فيسبوك تُميِّز على أساس العرق، وتسمح للمعلنين بمنع مجموعات عرقية معينة من مشاهدة إعلاناتهم.
تحت الضغط
تمتلك فيسبوك تاريخاً حافلاً بالتهرب من اتهامات التحيز في أنظمتها؛ إذ تطلب الأمر عدة سنوات من التغطية الإعلامية الناقدة وضغط جماعات الحقوق المدنية للوصول إلى هذه النقطة. وقد أعدَّت فيسبوك هذه الفِرَق بعد حملة مقاطعة إعلانية لمدة شهر نظَّمتها مجموعات الحقوق المدنية، بمن فيها رابطة مكافحة التشهير، ومنظمة لون التغيير، والجمعية الوطنية للنهوض بذوي البشرة الملونة (NAACP). وقد دفعت هذه الحملة كبار المعلنين مثل كوكا كولا وديزني وماكدونالدز وستاربكس إلى تعليق حملاتهم الإعلانية على فيسبوك.
لا شك أن هذه الخطوة تستحق الترحيب، لكن إطلاق تحقيق يمثل إجراءاً بعيداً كل البعد عن إيجاد حل حقيقي لمشكلة التحيز العرقي، خاصة عندما لا يعرف أحد حقاً كيفية إصلاحه. وفي معظم الحالات، يكون التحيز موجوداً في بيانات التدريب ولا توجد طرق جيدة متفق عليها للتخلص منه. كما يعتبر تعديل تلك البيانات -وهو أحد أشكال إجراءات التصحيح الخوارزمي- أمراً مثيراً للجدل. وعلاوة على ذلك، يشكل التحيز في التعلم الآلي واحدة فقط من المشكلات المتعلقة بالعرق في وسائل التواصل الاجتماعي.
إذا كانت فيسبوك ستعمل على دراسة وتقييم خوارزمياتها، فيجب أن يكون ذلك جزءاً من إصلاح أوسع يطال أيضاً معالجة السياسات التي تفتح المنصات أمام السياسيين العنصريين والجماعات المنادية بتفوق العرق الأبيض ومُنكري المحرقة.