وفقاً لأحدث عملية تدقيق لخدمات فيسبوك، تبين أن الموقع يحجب إعلانات توظيف معينة عن النساء بسبب جنسهن.
قام باحثون مستقلون في جامعة كاليفورنيا الجنوبية بإجراء هذا التدقيق، وهو يكشف أن نظام عرض الإعلانات في فيسبوك يميز في اختياراته للإعلانات بين الرجال والنساء، على الرغم من أن إعلانات التوظيف تتطلب نفس المؤهلات. يُعد هذا الأمر تمييزاً على أساس الجنس من وجهة نظر القانون الأميركي للمساواة في فرص التوظيف، الذي يحظر توجيه الإعلانات بناء على صفات محمية. وقد أتت هذه النتائج بعد عدة سنوات من مناصرة قضايا المرأة وعدة دعاوى قضائية، إضافة إلى عدة وعود من فيسبوك بإحداث تغيير شامل في طريقة عرضها للإعلانات.
سجل الباحثون كمعلنين على فيسبوك واشتروا بضع إعلانات للتوظيف بمؤهلات متطابقة ولكن لديمغرافيات مختلفة في العالم الحقيقي. وقاموا بالإعلان مثلاً عن عملي سائق توصل: واحد لدومينوز بيتزا (لتوصيل البيتزا) والآخر لإنستاكارت (لتوصيل البقالة). وحالياً، يوجد لدى دومينوز عدد أكبر من السائقين الرجال، ولدى إنستاكارت عدد أكبر من السائقات النساء.
وعلى الرغم من عدم تحديد جمهور محدد بناء على المعلومات الديمغرافية (وهي ميزة أبطلتها فيسبوك بالنسبة لإعلانات السكن والاعتماد البنكي والتوظيف في مارس 2019 بعد تسوية عدة دعاوى قضائية)، فإن الخوارزميات ما زالت تعرض الإعلانات لمجموعات ديمغرافية محددة من الناحية الإحصائية؛ حيث تم عرض إعلان دومينوز على عدد أكبر من الرجال، وتم عرض إعلان إنستاكارت على عدد أكبر من النساء.
وجد الباحثون نفس النمط مع إعلانات من أزواج أخرى من الوظائف: مهندسو برمجيات لإنفيديا (تحيز نحو الرجال) ونتفليكس (تحيز نحو النساء)، ومساعد مبيعات للسيارات (تحيز نحو الرجال) والمجوهرات (تحيز نحو النساء).
تشير هذه النتائج إلى أن خوارزميات فيسبوك ما زالت تلتقط بطريقة ما التوزع الديمغرافي الحالي لهذه الوظائف، الذي غالباً ما يختلف لأسباب تاريخية. (لم يتمكن الباحثون من معرفة السبب؛ لأن فيسبوك ترفض الإفصاح عن طريقة عمل نظام عرض الإعلانات). تقول ألكسندرا كورولوفا، وهي أستاذ مساعد في كاليفورنيا الجنوبية، وشاركت في تأليف الدراسة مع زميلها جون هيدمان والطالب الذي يشرفون عليه في رسالة الدكتوراه باسيليل إيمانا: "تعيد فيسبوك توليد هذه الانحرافات عند عرض الإعلانات، على الرغم من عدم وجود تبرير لها من حيث المؤهلات".
تقدم هذه الدراسة أحدث دليل على أن فيسبوك لم تحل مشاكل التمييز في إعلاناتها منذ أن سلطت منظمة بروبوليكا الضوءَ على المشكلة لأول مرة في أكتوبر من العام 2016؛ ففي ذلك الوقت، كشفت بروبوليكا أن المنصة كانت تسمح لمعلني الوظائف والإسكان باستثناء شرائح محددة من الجمهور وفق خصائص محددة مثل العرق والجنس. وتحظى هذه المجموعات بحماية خاصة في القانون الأميركي، ما يجعل هذه الممارسة مخالفة للقانون. تطلبت إزالة هذه الميزة سنتين ونصفاً من الزمن وعدة مواجهات قانونية مع فيسبوك.
ولكن، وبعد عدة أشهر، رفعت إدارة الإسكان والتطوير الحضري الأميركية دعوى جديدة، وزعمت فيها أن خوارزميات عرض الإعلانات في فيسبوك ما زالت تستبعد شرائح محددة من الجمهور دون طلب المعلنين لذلك. وقد قام فريق من الباحثين، يتضمن كورولوفا، وبقيادة محمد علي وبيوتر سابييزينسكي من جامعة نورث إيسترن، بتأكيد صحة هذه الادعاءات بعد أسبوع. وعلى سبيل المثال، فقد اكتشف الباحثون أن المنازل المعروضة للبيع كانت غالباً ما تُعرض على المستخدمين البيض، وأن المنازل المعروضة للإيجار كانت غالباً ما تُعرض على المستخدمين من الأقليات.
رغبت كورولوفا في إعادة النظر في المسألة خلال عملية التدقيق الأخيرة؛ لأن إثبات التمييز في حالة التمييز في التوظيف أصعب منه في حالة التمييز في الإسكان. فعلى الرغم من أن أي تمييز في عرض الإعلانات بناء على المزايا المحمية مخالف للقانون في حالة الإسكان، فإن قانون التوظيف في الولايات المتحدة يراه مبرراً عند وجود اختلافات حقيقية من حيث المؤهلات. تأخذ الطريقة الجديدة هذا العامل بعين الاعتبار.
ويقول سابييزينسكي، الذي لم يشارك في هذه الدراسة الأحدث: "إن التجربة مصممة بشكل محكم للغاية". ويضيف إنه من الممكن أن يقول البعض إن منصبي مساعدي المبيعات للسيارات والمجوهرات يحتاجان فعلاً إلى مؤهلات مختلفة، غير أن الاختلافات بين توصيل البيتزا وتوصيل البقالة لا تكاد تُذكر. ويقول: "لا يمكن تفسير هذه التحيزات على أساس الجنس بالاختلافات بين الجنسين في المؤهلات أو بنقص المؤهلات. ولم يعد بوسع فيسبوك الادعاء بأن هذه الفروقات قانونية".
أتى نشر هذا التدقيق في خضم التشديد على تحيز الذكاء الاصطناعي لدى فيسبوك؛ ففي مارس، نشرت إم آي تي تكنولوجي ريفيو نتائج تحقيق دام لتسعة أشهر في فريق الذكاء الاصطناعي المسؤول في الشركة، وقد وجد هذا التحقيق أن الفريق الذي تم تأسيسه في 2018 تجاهل معالجة بعض المشاكل مثل التضخيم الخوارزمي للمعلومات الزائفة والاستقطاب؛ وذلك بسبب تركيزه على تحيز الذكاء الاصطناعي بشكل ضيق الأفق. بعد ذلك بفترة قصيرة، نشرت الشركة منشور مدونة تؤكد فيه على أهمية ذلك العمل، وتقول على وجه الخصوص إن فيسبوك تسعى "إلى تحقيق استيعاب أفضل للأخطاء الكامنة التي يمكن أن تؤثر على نظام الإعلانات لدينا، وذلك في إطار عملنا الأوسع نطاقاً لدراسة العدالة الخوارزمية في الإعلانات".
كما صرح الناطق الرسمي باسم الشركة جو أوزبورن قائلاً: "لقد اتخذنا خطوات جادة لمعالجة مسائل التمييز في الإعلانات ولدينا فرق تعمل حالياً على تحقيق العدالة في الإعلانات. يأخذ نظامنا بعين الاعتبار الكثير من الإشارات لمحاولة عرض الإعلانات على الأشخاص الذين قد يكونون الأكثر اهتماماً بها، ولكننا نتفهم المخاوف التي عبر عنها التقرير... ونحن نواصل العمل في هذه المسائل الهامة جنباً إلى جنب مع أوساط الحقوق المدنية والمشرّعين والأكاديميين".
ولكن، وعلى الرغم من كل هذه الإدعاءات، تقول كورولوفا إنها لم تلحظ أي تغيير يستحق الذكر ما بين تدقيق العام 2019 والتدقيق الجديد من حيث طريقة عمل نظام عرض الإعلانات في فيسبوك. وتقول: "من المؤسف أن نتوصل إلى نتيجة مخيبة للآمال كهذه؛ لأننا لفتنا نظرهم إلى الموضوع منذ سنتين". وتضيف إنها عرضت العمل مع فيسبوك على معالجة هذه المسائل. "ولكننا لم نسمع رداً. وبالنسبة لي على الأقل، لم تقم الشركة بأي مبادرة للتواصل".
في مقابلات سابقة، قالت الشركة إنها غير قادرة على مناقشة تفاصيل عملها على التخفيف من التمييز الخوارزمي في خدمة الإعلانات لديها؛ وذلك بسبب التحقيقات الجارية. كما قال فريق الإعلانات إن التقدم كان محدوداً بسبب صعوبات تقنية.
غير أن سابييزينسكي، الذي أجرى حتى الآن ثلاث عمليات تدقيق على المنصة، يقول إن المسألة مختلفة تماماً. ويقول: "ما زالت فيسبوك تصر على عدم الاعتراف بوجود مشكلة". ويضيف أنه يوجد حل مؤقت سهل يمكن تطبيقه أثناء عمل الفريق على حل المعضلات التقنية؛ حيث يمكن إيقاف خوارزميات الإعلان الموجه فقط لإعلانات الإسكان والتوظيف والإقراض، دون التأثير على بقية نواحي الخدمة. ويقول إنها مجرد مسألة إرادة سياسية، لا أكثر.
ويتفق معه في الرأي كريستو ويلسون، وهو باحث آخر في نورث ويسترن ويدرس التحيز الخوارزمي، ولكنه لم يشارك في أبحاث كورولوفا أو سابييزينسكي، حيث يقول: "كم مرة يجب أن يكتشف الباحثون والصحفيون هذه المشاكل قبل أن نعترف بأن نظام الإعلانات الموجهة فاشل بالكامل؟".