موظفة سابقة تفضح فيسبوك وتقول إن خوارزمياتها خطرة… لكن لماذا؟

10 دقائق
لماذا خوارزميات فيسبوك خطرة
فرانسيس هوجن التي كشفت أسرار فيسبوك خلال شهادتها بجلسة الاستماع لمجلس الشيوخ في 5 أكتوبر.

شهدت ليلة الأحد المنصرم الكشف عن هوية المصدر الأساسي للسلسلة الاستقصائية فيسبوك فايلز من وول ستريت جورنال، التي بُنيت على وثائق داخلية من فيسبوك، وذلك في حلقة من برنامج 60 مينيتس.

وقالت فرانسيس هوجن، وهي مديرة منتجات سابقة في الشركة، إنها قررت أن تقدم شهادتها بعد أن رأت قيادة فيسبوك تفضل الربح على السلامة في الكثير من المواقف.

وقبل استقالتها في مايو من هذا العام، قامت بتفتيش شبكة التواصل الاجتماعية الداخلية لموظفي الشركة، فيسبوك ووركبليس، وتمكنت من جمع كمية كبيرة من التقارير والأبحاث الداخلية، في محاولة للحصول على إثبات دامغ يبرهن أن فيسبوك اختارت طوعاً عدم إصلاح المشكلات على منصتها.

وبعد ذلك، قدمت شهادتها أمام مجلس الشيوخ حول تأثير فيسبوك في المجتمع. وأعادت تكرار الكثير من النتائج التي توصلت إليها الأبحاث الداخلية، وناشدت الكونجرس للتحرك على الفور.

وقد قالت في بيانها الافتتاحي أمام المشرعين: "أقف أمامكم اليوم لأنني أعتقد أن منتجات فيسبوك تؤذي الأطفال، وتحض على التفرقة، وتضعف ديمقراطيتنا". وأضافت: "هذه المشكلات قابلة للحل. ويمكن أن نبني وسائل تواصل اجتماعي أكثر أماناً واحتراماً لحرية التعبير وممتعة أيضاً. ولكن هناك شيء واحد أتمنى أن يفهمه الجميع من هذه المعلومات، وهو أن فيسبوك قادرة على أن تتغير، غير أنه من الواضح أنها لن تتغير من تلقاء نفسها".

خلال شهادتها، وجهت هوجن اللوم بشكل خاص على خوارزمية فيسبوك والقرارات المتعلقة بتصميمها، التي تسببت بالكثير من مشكلاتها. ويمثل هذا نقلة نوعية عن التركيز السابق لصانعي السياسات على سياسة فيسبوك المتعلقة بالمحتوى والمراقبة، أي ما يجب أن يزجد أو لا يوجد على فيسبوك. ويعتقد الكثير من الخبراء أن هذه النظرة الضيقة تؤدي إلى استراتيجية تعتمد على ردود الأفعال الآنية التي تعالج مشكلات صغيرة، بشكل يهمل الصورة الكاملة.

وقالت هوجن: "أنا من أشد المناصرين للحلول التي لا تعتمد على المحتوى، لأن هذه الحلول ستحمي أكثر الفئات المهمشة والمعرضة للأذى في العالم"، مشيرة إلى عدم التوازن في قدرة فيسبوك على فرض سياسات المحتوى الخاصة بها، التي تضعف كثيراً خارج نطاق اللغة الإنجليزية.

عكست شهادة هوجن الكثير من النتائج التي توصل إليها تحقيق إم آي تي تكنولوجي ريفيو، الذي نُشر في وقت سابق من هذا العام، والذي استمد محتواه من عشرات المقابلات مع مدراء فيسبوك التنفيذيين، وموظفيها الحاليين والسابقين، وأقرانها في الصناعة، والخبراء الخارجيين. وقد قمنا بتجميع أجزاء هذه التحقيق -وغيره من التحقيقات- الأكثر صلة بشهادة هوجن، وذلك لوضعها في سياقها المناسب.

كيف تعمل خوارزمية فيسبوك؟

عادة ما نستخدم مصطلح "خوارزمية فيسبوك" تجاوزاً، وكأن الموقع يحتوي على خوارزمية واحدة فقط. وفي الواقع، فإن فيسبوك تقرر كيفية توجيه الإعلانات وتصنيف المحتوى بناء على المئات، وربما الآلاف، من الخوارزميات. وتستشعر بعض هذه الخوارزميات تفضيلات المستخدم، وتدفع بالمحتوى الموافق لها إلى أعلى صفحته الرئيسية. وتستشعر غيرها أنواعاً محددة من المحتوى المسيء، مثل الإباحية، والمنشورات المزعجة، والعناوين الجذابة التي تهدف إلى زيادة التفاعل والنقر، وتحذفها أو تدفعها إلى أسفل الصفحة الرئيسية.

وجميع هذه الخوارزميات تنتمي إلى الفئة المعروفة باسم خوارزميات التعلم الآلي. وكما كتبت في وقت سابق من هذا العام:

على عكس الخوارزميات التقليدية، التي تعمل وفقاً بشكل محدد يتبع تعليمات برمجية مباشرة من المهندسين، فإن خوارزميات التعلم الآلي "تتدرب" على بيانات دخل معينة حتى تكتشف الترابطات فيها. وبعد ذلك، تستطيع الخوارزميات المدربة، والمعروفة باسم نموذج التعلم الآلي، اتخاذ القرارات في المستقبل بشكل مؤتمت. وعلى سبيل المثال، فإن خوارزمية مدربة على بيانات النقر على الإعلانات يمكن أن تتعلم أن النساء ينقرن على إعلانات سراويل اليوغا الضيقة أكثر من الرجال. وعندها، سيقوم النموذج الناتج بعرض المزيد من هذه الإعلانات على النساء.

ونظراً للكميات الضخمة من البيانات لدى فيسبوك، فإنها قادرة

على تطوير نماذج تستطيع استنباط وجود فئات واسعة النطاق مثل "نساء" و "رجال"، وحتى فئات ضيقة ومحددة للغاية مثل "النساء بعمر 25 إلى 34 سنة من المعجبات بالصفحات المتعلقة باليوغا"، بحيث تستهدف هذه الفئات بالإعلانات الموافقة. وكلما كانت عملية الاستهداف أكثر دقة، كانت فرصة الحصول على نقرة أكبر، ما يعني نتيجة أفضل للمعلنين لقاء أموالهم التي دفعوها لهذه الإعلانات.

وينطبق نفس المبدأ على تصنيف المحتوى في الصفحة الرئيسية:

فكما يمكن تدريب الخوارزميات على توقع هوية الشخص الذي سينقر على إعلان معين، يمكن أيضاً تدريبها على توقع هوية الشخص الذي سيعجب بمنشور ما أو يشاركه، ومن ثم إعطاء الأولوية لهذه المنشورات. فإذا اكتشف النموذج أن شخصاً ما يحب الكلاب إلى درجة كبيرة، على سبيل المثال، فإن منشورات الأصدقاء حول الكلاب ستظهر في مكان أعلى في الصفحة الرئيسية لهذا الشخص.

قبل أن تبدأ فيسبوك باستخدام خوارزميات التعلم الآلي، كانت الفرق تستخدم أساليب تصميمية لزيادة التفاعل. وكانت تجري تجارب مختلفة على أشياء مثل لون أحد الأزرار أو درجة تكرار الإشعارات، لتشجيع المستخدمين على العودة إلى المنصة. لكن خوارزميات التعلم الآلي تعطي حلقة تغذية خلفية أكثر فعالية بكثير. فلا تستطيع فقط تخصيص ما يراه كل مستخدم، بل إنها تتطور أيضاً مع تغير تفضيلات المستخدم، وتعرض بشكل دائم على كل شخص ما يحافظ على تفاعله لأعلى درجة ممكنة.

من يدير خوارزميات فيسبوك؟

لا يوجد في فيسبوك فريق واحد متخصص بإدارة نظام تصنيف المحتوى بالكامل. حيث يقوم المهندسون بتطوير وإضافة نماذج التعلم الآلي الخاصة بهم إلى المنصة، بناء على أهداف الفريق. وعلى سبيل المثال، فإن الفرق التي تركز على إزالة رتبة المحتوى السيء أو تخفيضه، والمعروفة باسم فرق الجودة، تدرب فقط النماذج على كشف الأنواع المختلفة من المحتوى المسيء.

وقد كان هذا قراراً اتخذته فيسبوك منذ زمن في إطار ثقافتها الخاصة، التي تقوم على العمل بسرعة حتى بوجود الكثير من التجارب الفاشلة. كما طورت أداة داخلية تعرف باسم إف بي ليرنر فلو، تسهل على المهندسين الذين لا يتمتعون بخبرة في التعلم الآلي تطوير أي نماذج يحتاجونها. ووفقاً لإحدى نقاط البيانات، فقد كانت هذه الأداة مستخدمة من قبل أكثر من ربع فرق فيسبوك الهندسية في 2016.

ويقول الكثيرون من موظفي فيسبوك الحاليين والسابقين الذين تحدثت معهم أن هذا أحد العوامل التي تسهم في عجز فيسبوك عن تحديد ما تعرضه على المستخدمين في الصفحة الرئيسية بالضبط. فقد تكون هناك أهداف متضاربة لدى الفرق المختلفة، كما أن النظام أصبح معقداً ومتشابكاً إلى درجة تستحيل معها متابعة عمل جميع مكوناته المختلفة.

ولهذا، تقوم عملية ضبط الجودة الأساسية لدى الشركة على التجريب والقياس. وكما كتبت سابقاً:

تقوم الفرق بتدريب نموذج تعلم آلي جديد على إف بي ليرنر، سواء أكان لتغيير ترتيب المنشورات أم لتحسين القدرة على التقاط المحتوى الذي ينتهك معايير مجتمع فيسبوك (أي القواعد التي تحدد المحتوى المسموح والممنوع على المنصة). ومن ثم تقوم باختبار النموذج الجديد على مجموعة فرعية صغيرة من مستخدمي فيسبوك لقياس التغيرات على معاملات التفاعل، مثل عدد الإعجابات والتعليقات والمشاركات، وذلك وفقاً لكريشنا جايد، الذي كان مدير الهندسة للصفحة الرئيسية من 2016 إلى 2018.

فإذا أدى النموذج إلى انخفاض كبير في التفاعل، يتم التخلي عنه. وإلا، فسوف يُطبق ويخضع لمراقبة مستمرة. وعلى تويتر، شرح جايد أن مهندسيه كانوا يحصلون على إشعارات كل بضعة أيام عندما تنخفض بعض المقاييس مثل الإعجابات أو التعليقات. وبعد ذلك، كانوا يحاولون معرفة سبب المشكلة، وما إذا كانت أي نماذج تحتاج إلى إعادة تدريب.

كيف أدى تصنيف المحتوى على فيسبوك إلى انتشار المعلومات المزيفة وخطاب الكراهية؟

خلال شهادتها، كررت هوجن الفكرة القائلة بأن خوارزميات فيسبوك تنشر المعلومات الزائفة، وتحرض على خطاب الكراهية، وحتى العنف العرقي. 

وقالت في شهادتها أمام مجلس الشيوخ: "تدرك فيسبوك –وقد أقرت بهذا علناً- أن التصنيف المبني على التفاعل يصبح خطيراً دون وجود أنظمة جودة وحماية، لكنها لم تقم بتفعيل هذه الأنظمة في معظم اللغات في العالم، وهذا يؤدي إلى تفريق العائلات وفي بعض الأماكن مثل إثيوبيا، يؤدي حرفياً إلى التحريض على العنف العرقي".

وهذا ما كتبته سابقاً حول هذه المسألة:

إن نماذج التعلم الآلي التي تعطي الأولوية للتفاعل تميل أيضاً إلى تفضيل الجدل، والمعلومات الزائفة، والتطرف، وببساطة، فإن الناس يحبون الأمور المبالغ فيها والسلبية.

يؤدي هذا في بعض الأحيان إلى زيادة شدة التوترات السياسية الموجودة مسبقاً. وتمثل ميانمار أكثر الأمثلة وضوحاً حتى اللحظة، حيث أدت الأخبار الزائفة ومنشورات خطاب الكراهية سريعة الانتشار حول أقلية الروهينجا المسلمة إلى تصعيد الصراع الديني في البلاد وتحوله إلى عملية إبادة عرقية حقيقية. وقد اعترفت فيسبوك في 2018، بعد عدة سنوات من محاولة التقليل من قيمة دورها، أنها لم تقم بما يكفي "للمساعدة على منع استغلال المنصة للتحريض على التفرقة وإثارة العنف على الأرض".

وكما ذكرت هوجن، فقد أدركت فيسبوك هذا الأمر منذ فترة. ووجدت بعض التقارير السابقة أنها كانت تدرس هذه الظاهرة منذ 2016 على الأقل.

وفي عرض تقديمي داخلي من تلك السنة، وهو عرض تحدثت عنه صحيفة وول ستريت جورنال، وجدت مونيكا لي الباحثة في الشركة، أن فيسبوك لم تكن تستضيف عدداً كبيراً من مجموعات المتطرفين فحسب، بل كانت تروج أيضاً لهذه المجموعات بين مستخدميها: وقال التقرير إن "64% من إجمالي عمليات الانضمام إلى المجموعات المتطرفة يعود إلى أدوات التوصية الخاصة بنا"، أي بشكل أساسي بفضل النماذج التي تعتمد عليها ميزات " Discover" و "Groups You Should Join".

في 2017، قام كريس كوكس، مسؤول المنتجات في فيسبوك منذ فترة طويلة، بتشكيل مجموعة جديدة لدراسة ما إذا كان تحفيز التفاعل إلى أقصى حد على فيسبوك يسهم في الاستقطاب السياسي. وتبين له وجود ترابط حقيقي بالفعل، وأن تخفيض الاستقطاب يعني التخفيف من التفاعل. وفي وثيقة تعود إلى منتصف 2018، من بين الوثائق التي دققتها الصحيفة، اقترحت المجموعة عدة إصلاحات ممكنة، مثل تعديل خوارزميات التوصية لاقتراح نطاق أوسع من المجموعات حتى ينضم الناس إليها. ولكنها اعترفت بأن بعض الأفكار كانت "مضادة للنمو". وفي نهاية المطاف، قوبلت أغلب الاقتراحات بالتجاهل، كما حُلت المجموعة.

وفي حواراتي الخاصة، أكد موظفو فيسبوك أيضاً هذه النتائج.

فقد قال باحث سابق في قسم فيسبوك للذكاء الاصطناعي، الذي انضم إليه في 2018، إنه أجرى مع فريقه  "دراسة تلو الأخرى" لتأكيد نفس الفكرة الأساسية: النماذج التي تعزز التفاعل تزيد من الاستقطاب. وقد تمكنوا بسهولة من تتبع مدى الاتفاق أو الاختلاف بين المستخدمين حول عدة قضايا مختلفة، والمحتوى الذي يحبونه أو يتفاعلون معه، وكيفية تغير مواقفهم كنتيجة لهذا التفاعل. وبغض النظر عن المحتوى، فقد تعلمت النماذج تلقيم المستخدمين بوجهات نظر متطرفة أكثر فأكثر. ويقول: "لقد أصبح المستخدمون أكثر استقطاباً مع مرور الوقت، وبدرجة قابلة للقياس".

وفي شهادتها، أكدت هوجن أيضاً، وبشكل متكرر، على أن هذه الظواهر أسوأ بكثير في المناطق التي لا تتكلم الإنجليزية، وذلك بسبب تغطية فيسبوك المتفاوتة للغات المختلفة.

وقالت: "في حالة إثيوبيا، هناك أكثر من 100 مليون شخص و 6 لغات مختلفة، ولا تدعم أنظمة الجودة في فيسبوك سوى لغتين من هذه اللغات" وأضافت: "إن هذه الاستراتيجية التي تركز على أنظمة الذكاء الاصطناعي والتي تعتمد فقط على اللغات والمحتوى لحمايتنا محكومة بالفشل".

وأكملت: "وبالتالي، فإن الاستثمار في الأساليب التي لا تعتمد على المحتوى لإبطاء المنصة لن يحمي حريتنا في التعبير فحسب، بل سيحمي الأرواح أيضاً".

وقد توسعت في هذه المسألة في مقالة مختلفة تعود إلى وقت سابق من هذا العام حول محدوديات النماذج اللغوية الكبيرة:

على الرغم من النماذج اللغوية الكبيرة تعاني من مشكلات لغوية، فإن فيسبوك تعتمد عليها إلى حد كبير لأتمتة عملية مراقبة المحتوى لديها على مستوى العالم. وفي بداية اندلاع الحرب في تيجراي بإثيوبيا خلال نوفمبر، لاحظت باحثة أخلاقيات الذكاء الاصطناعي تيمنيت جيبرو أن المنصة كانت تتخبط في محاولة للسيطرة على انتشار المعلومات المزيفة فيها. ويبدو هذا تجسيداً لنمط متكرر لاحظه الباحثون في مراقبة المحتوى. ويبدو أن المجتمعات التي تتكلم لغات غير مهمة بالنسبة لوادي السيليكون تعاني أكثر من غيرها من عدائية البيئات الرقمية.

غير أن جيبرو لاحظت أن الأذى لا ينتهي عند هذا الحد أيضاً. فعندما لا تتعامل المنصة مع الأخبار المزيفة وخطاب الكراهية وحتى تهديدات القتل على نحو مناسب، فسوف تتحول إلى بيانات تدريب تستخدم لبناء الجيل الجديد من النماذج اللغوية الكبيرة. وبعد ذلك، ستقوم هذه النماذج بترداد ما تم تدريبها عليه، وينتهي المطاف بها وهي تطلق هذه الأنماط اللغوية السامة في كافة أنحاء الإنترنت.

ما العلاقة بين تصنيف المحتوى على فيسبوك والصحة العقلية للمراهقين؟

يمثل بحث إنستقرام الداخلي أحد أكثر نواحي تحقيق فيسبوك فايلز من جورنال إثارة للصدمة، حيث وجد أن منصتها تؤدي إلى تردي الصحة العقلية بين الفتيات المراهقات. وقد كتب الباحثون في عرض تقديمي بالشرائح في مارس 2020: "قالت 32% من الفتيات إنه عندما كن يشعرن بمشاعر سلبية تجاه أجسادهن، كان إنستقرام يزيد من سلبية هذه المشاعر".

ربطت هوجن هذه الظاهرة بأنظمة تصنيف المحتوى التي تعتمد على التفاعل أيضاً، والتي قالت لمجلس الشيوخ إنها "تتسبب بتعريض المراهقين إلى مقادير أكبر من المحتوى المتعلق بفقد الشهية للأكل".

وتابعت قائلة: "لو كان إنستقرام قوة خيرة إلى هذه الدرجة، فهل شهدنا العصر الذهبي للصحة العقلية للمراهقين في السنوات العشر الأخيرة؟ لا، بل شهدنا تصاعداً في معدلات الانتحار والاكتئاب بين المراهقين، وهناك العديد من الأبحاث التي تدعم الفكرة القائلة بأن استخدام وسائل التواصل الاجتماعي يضخم من مخاطر هذه المشكلات في الصحة العقلية".

وفي تحقيقاتي الخاصة، تحدثت مع باحثة سابقة في مجال الذكاء الاصطناعي، وقالت لي إنها شهدت امتداد هذا التأثير أيضاً إلى فيسبوك.

وقد وجد فريق هذا الباحثة أن المستخدمين الذين يميلون إلى نشر محتوى حزين أو التفاعل معه وهي دلالة على احتمال وجود اكتئاب- يمكن أن يتدهور وضعهم بسهولة نحو استهلاك مواد سلبية أكثر فأكثر، ما يؤدي إلى زيادة الخطر على صحتهم العقلية.

وعلى غرار هوجن، وجدت الباحثة أن قيادة الشركة لم تبد أي اهتمام بإجراء تغييرات جذرية في الخوارزميات.

اقترح الفريق تعديل نماذج تصنيف المحتوى لهؤلاء المستخدمين لإيقاف الاعتماد على تعزيز التفاعل فقط، بحيث تعرض نسبة أقل من المحتوى الكئيب. "كان السؤال الموجه إلى قيادة الشركة على النحو التالي: هل من الصحيح أن نركز على تعزيز التفاعل إذا وجدنا أن أحدهم يعاني وضعاً عقلياً حساس؟"، كما تستذكر الباحثة.

ولكن أي اقتراح يقلل من التفاعل كان يُقابل بالكثير من اللغط والجدل والتردد في قيادة الشركة، حتى لو كان هذا لسبب وجيه مثل تفادي زيادة اكتئاب شخص ما. ومع ارتباط تقييمات الأداء والرواتب بإكمال المشروعات بنجاح، تعلم الموظفون بسرعة التخلي عن المشروعات التي تعرضت للرفض والمقاومة، والتركيز على المشروعات التي أملتها عليهم القيادات العليا في الشركة.

أما تلك الموظفة السابقة، فقد منعت ابنتها منذ ذلك الحين من استخدام فيسبوك.

كيف يمكن أن نعالج هذه المشكلة؟

تعارض هوجن تقسيم شركة فيسبوك، أو إبطال القسم 230 من قانون نزاهة الاتصالات في الولايات المتحدة، الذي يحمي المنصات التكنولوجية من تحمل مسؤولية المحتوى الذي توزعه.

وبدلاً من ذلك، تنصح بصياغة استثناء أكثر توجيهاً في القسم 230 ضد التصنيف الخوارزمي، وهو ما تقول إنه "سيضع حداً للتصنيف المرتكز على التفاعل". كما أنها من مناصري إعادة عرض الأخبار على صفحة فيسبوك الرئيسية وفقاً للترتيب الزمني.

تشغل إيليري روبرتس بيدل منصب مدير المشاريع في رانكينج ديجيتال رايتس، وهي منظمة لاربحية تدرس أنظمة التصنيف على وسائل التواصل الاجتماعي وأثرها في حقوق الإنسان، وتقول إن الاستثناء من القسم 230 يجب أن يتم بحذر ودقة: "أعتقد أنه سيكون محدود الأثر. ولا أظن أنه سيحقق ما نأمل به بالكامل".

وتضيف أن إمكانية تطبيق هذا الاستثناء تتطلب مستوى عالياً للغاية من الشفافية يسمح لصانعي السياسات والعامة بالاطلاع على كيفية عمل الإعلانات الموجهة وأنظمة تصنيف المحتوى في فيسبوك. وتقول: "أنا أتفهم مقصد هوجن، وهو يعبر عن تفكير منطقي، ولكنه ليس بالأمر السهل. فلم نتمكن من حل مسألة الشفافية حول الخوارزميات حتى الآن. وما يزال لدينا الكثير مما يجب فعله".

على الرغم من هذا، فإن شهادة هوجن والمعلومات التي كشفت عنها جددت الانتباه والتركيز على ما كان العديد من الخبراء وموظفي فيسبوك يقولونه منذ سنوات: إذا لم تغير فيسبوك التصميم الأساسي لخوارزمياتها، فلن تحدث أي أثر إيجابي يُذكر في حل مشكلات المنصة. 

كما أن هذه المبادرة تثير فكرة احتمال أن يضطر صانعو السياسات إلى إجبار فيسبوك على إصلاح مشكلاتها ما لم تقم بذلك بنفسها.

وكما قالت هوجن لمجلس الشيوخ: "يستطيع الكونجرس تغيير القواعد التي تعمل فيسبوك وفقها حالياً، ويوقف الأذيات الكثيرة التي تتسبب بها". وتضيف: "لقد تقدمت بشهادتي على الرغم من وجود مخاطرة كبيرة بالنسبة لي على المستوى الشخصي، لأنني أعتقد أن الأوان لم يفت بعد، ولكننا يجب أن نتصرف الآن وفوراً".

المحتوى محمي