بوتات الأخبار المزيفة المعتمدة على الذكاء الاصطناعي: هل تنجح مكافحتها باستخدام الذكاء الاصطناعي نفسه؟

9 دقائق

يشغل سامويل وولي منصب بروفيسور مساعد في مدرسة مودي للاتصالات في جامعة تكساس أوستن، وهذا مقتطف معدل عن كتابه المقبل لعبة الواقع The Reality Game.

كلما دخلت إلى موقع تويتر وألقيت نظرة على منشور واسع الانتشار، فمن المرجح أن تجد إعجابات أو تعليقات من حسابات بوتات عديدة. وإذا دققت أكثر، فستجد أن هذه الحسابات غردت كثيراً، وغالباً بفواصل زمنية قصيرة. في بعض الأحيان، تتمحور منشوراتها حول بيع شيء ما أو نشر فيروسات رقمية، غير أن حسابات أخرى تتصف بأنها سياسية بالكامل، خصوصاً البوتات التي تنشر عبارات مشوشة تتصف بالكراهية الشديدة رداً على مقالات إخبارية أو تصريحات رسمية معينة.

من السهل أن نفترض أن هذه الظاهرة بأسرها تعتمد على علوم الحاسوب المتقدمة. وبالفعل، فقد تحدثت مع الكثيرين ممن يعتقدون أن الخوارزميات التي تعتمد على التعلم الآلي أو الذكاء الاصطناعي تمنح البوتات السياسية القدرة على التعلم من بيئتها المحيطة والتفاعل مع الناس بطرق معقدة.

خلال الأحداث التي يعتقد الباحثون الآن أن استخدام البوتات السياسية وتزييف المعلومات قد لعب دوراً أساسياً فيها، مثل استفتاء بريكست (خروج بريطانيا من الاتحاد الأوروبي) ومنافسة ترامب - كلينتون في الانتخابات الرئاسية الأميركية في 2016 وأزمة القرم، هناك اعتقاد عام يقول إن أدوات الذكاء الاصطناعي مكّنت الحواسيب من تقمّص دور البشر والتلاعب بالحوار العام.

عزز المثقفون والصحفيون من هذا الاعتقاد، فقد نُشرت العديد من المقالات شديدة التحريض حول صعود "آلة حربية دعائية تعتمد على الذكاء الاصطناعي"، ومقالات أخرى تزعم أن "الذكاء الاصطناعي اكتسح الديمقراطية". حتى أن بعض المقالات التي تشير إلى أن أسيادنا الآليين قد أصبحوا حقيقة واقعة تتضمن اقتباسات من بحثي الخاص حول استخدام وسائل التواصل الاجتماعي لقولبة الرأي العام واختراق الحقيقة وإسكات الأصوات المعارضة، أي ما يُعرف باسم "الدعاية الحاسوبية".

ولكن في الواقع، فإن الأساليب المعقدة (مثل الذكاء الاصطناعي) لعبت دوراً صغيراً في حملات الدعاية الحاسوبية حتى الآن. وتشير جميع الأدلة التي رأيتها حول قضية كامبريدج أناليتيكا إلى أن الشركة لم تقم أبداً بإطلاق أداة التسويق "السيكوغرافية" (أي ذات التأثير العقلي) التي زعمت أنها تمتلكها خلال الانتخابات الرئاسية في 2016، على الرغم من أنها قالت إن الأداة قادرة على استهداف الأفراد برسائل محددة بناء على الصفات الشخصية المستخلصة من قاعدة البيانات المثيرة للجدل التي أخذتها من فيسبوك.

عندما كنت في معهد أكسفورد للإنترنت، درسنا كيفية استخدام بوتات تويتر، وما إذا كانت استُخدِمت على الإطلاق، خلال الجدل حول بريكست. ووجدنا أن أغلبية الحسابات الآلية كانت بسيطة للغاية، على الرغم من استخدام الكثير منها لنشر الرسائل حول حملة الخروج (أي التي تدعو إلى خروج بريطانيا). فقد كانت هذه الحسابات مخصصة لإحداث تغييرات في الحوارات على الإنترنت ببوتات بُنيت ببساطة لتعزيز الإعجابات والمتابعات، ونشر الروابط، والتلاعب بالتوجهات، أو نشر الكراهية بين الخصوم. وقد كانت مُدارة من قِبل مجموعات صغيرة من البشر المدركين لسحر الميمات والمحتوى سريع الانتشار، وزرع المؤامرات على الإنترنت ومراقبتها وهي تنمو. فقد عُرقلت وجُمدت بعض الحوارات عن طريق محتوى مزعج وعديم المعنى قامت البوتات بتوليده، بشكل مرتبط بوسوم (هاشتاغات) محددة، من أجل إعاقة الحوار على الإنترنت، كما دُعمت روابط المقالات الإخبارية التي تحدثت عن شخصية سياسية وفق وجهة نظر معينة عن طريق حسابات مزيفة أو مرحلية، تقوم بنشر نفس الهراء مراراً وتكراراً. وقد نُفذت هذه الحملات بشكل فج وبلا مواربة، فلم تكن هذه البوتات مصممة حتى تجري الحوارات بشكل فعال، ولم تعتمد على الذكاء الاصطناعي.

لا غباء بعد الآن
غير أنه توجد دلائل تشير إلى بدء الاعتماد على الذكاء الاصطناعي في الدعاية وتزييف المعلومات. فقد بدأ القراصنة وغيرهم من المجموعات باختبار فعالية بوتات أكثر خطورة تعتمد على الذكاء الاصطناعي في مواقع التواصل الاجتماعي. وقد أوردت مقالة من 2017 على جيزمودو أن اثنين من علماء البيانات قاما بتعليم نظام ذكاء اصطناعي كيفية تصميم حملته الخاصة للخداع الإلكتروني: "في الاختبارات، تمكن القرصان الاصطناعي من التفوق على منافسيه البشر بفارق كبير؛ حيث قام بصياغة وتوزيع عدد أكبر من التغريدات المخادعة، محققاً نسبة نجاح أعلى بكثير".

لا يتم نشر المحتوى الإشكالي فقط عن طريق البوتات السياسية التي تعتمد على الذكاء الاصطناعي، كما أن توليد الاستخدامات والتصاميم الإشكالية للتكنولوجيا لا يقتصر فقط على شركات التواصل الاجتماعي. وقد أشار الباحثون إلى أنه يمكن إفساد التعلم الآلي عن طريق هجمات التسميم -أي قيام جهات خبيثة بالتأثير على بيانات التدريب لتغيير نتائج خوارزمية ما- قبل أن تصبح الآلة علنية حتى.

قال كاليف ليتارو، وهو زميل أساسي في جامعة جورج واشنطن، إن الهجمات الأولى للبوتات التي تعتمد على الذكاء الاصطناعي قد لا تكون موجهة إلى وسائل التواصل الاجتماعي، بل قد تكون مشاركة في ما يعرف بالهجوم الموزع للحرمان من الخدمة، الذي يتضمن تعطيل مخدمات الويب المستهدفة عن طريق إغراقها باستخدام تدفق حركة البيانات. وقد كتب ليتارو قائلاً: "تخيل للحظة أنك سلمت التحكم بشبكة الحواسيب المصابة إلى نظام تعلم عميق، بحيث تسيطر هذه الخوارزمية على الشبكة بالكامل".

لا تهدف هذه الجهود إلى مساعدة المنظمات الإخبارية على تدقيق الكميات الهائلة من المحتوى، بل إلى مساعدة شركة ضخمة ما على الحفاظ على مظهرها الملتزم والمنظم.

"يمكنك أيضاً أن تقدم لهذا النظام تغذية مستمرة من معلومات حالة الإنترنت من كبار مزودي الأمن السيبراني والمراقبة السيبرانية على مستوى العالم، حتى يستطيع أن يراقب في كل ثانية استجابة الضحية والإنترنت بشكل عام للهجوم. ربما سيحدث كل هذا بعد أن تجعل الخوارزمية تمضي عدة أسابيع في مراقبة الهدف بالتفصيل الممل لاستيعاب الصورة الإجمالية والتفاصيل الدقيقة لأنماط وسلوكيات حركة مرور البيانات، وحفر طريقها عبر الطبقات الخارجية من الدفاعات".

أكثر من الدفاع
في أبريل، 2018، مَثُل مارك زوكربيرج أمام الكونجرس، وقد كان محط الانتباه السياسي بسبب سوء التعامل مع معلومات المستخدمين خلال الانتخابات في 2016. وفي شهادته المؤلفة من جزأين، ذكر مصطلح الذكاء الاصطناعي أكثر من 30 مرة، وأشار إلى أن الذكاء الاصطناعي سيكون الحل الناجع لمشكلة تزييف المعلومات الرقمية، وذلك عن طريق تقديم البرامج التي ستكافح الأحجام الضخمة من الدعاية الحاسوبية. وقد توقع أن الذكاء الاصطناعي سيتحول في العقد المقبل إلى المنقذ الوحيد من المشاكل الكبيرة التي تتعامل معها فيسبوك وغيرها بسبب الانتشار العالمي للتلاعب والمحتوى الفارغ.

إذن، هل توجد طريقة لاستخدام تكنولوجيا الذكاء الاصطناعي أو البوتات الآلية لمواجهة التلاعب بالرأي العام على الإنترنت؟ هل يمكننا أن نواجه الذكاء الاصطناعي باستخدام الذكاء الاصطناعي؟

قام مرصد التواصل الاجتماعي في جامعة إنديانا ببناء أدوات عامة تعتمد على التعلم الآلي لكشف البوتات عن طريق دراسة 1,200 ميزة لتحديد ما إذا كان الحساب أقرب إلى كونه بشرياً أم بوتاً. كما قالت مديرة المنتجات في فيسبوك تيسا ليونز في إعلان في 2018 إن "التعلم الآلي يساعدنا على تحديد القصص المكررة أو التي دُحضت من قبل. وعلى سبيل المثال، فإن أحد المدققين في فرنسا دحض الادعاء الذي يقول إنه يمكنك إنقاذ شخص ما من السكتة بوخزه بإبرة لإخراج الدم من إصبعه. وهو ما سمح لنا بتحديد أكثر من 20 نطاق وأكثر من 1,400 رابط لنشر نفس هذا الادعاء". وفي هذه الحالات، تستطيع شركات التواصل الاجتماعي الاستفادة من قدرات التعلم الآلي لتحديد التصحيحات والتأكد من صحتها في جميع أنحاء العالم، واستخدامها لتحديد المحتوى المشبوه.

غير أنه يوجد جدل كبير في الأوساط الأكاديمية حول مدى تأثير التعامل السلبي مع المعلومات التي يحتمل أن تكون خاطئة لمستخدمي وسائل التواصل الاجتماعي، أي الاكتفاء بتحديدها فقط. ويشير بعض الباحثين إلى أن جهود التدقيق على الإنترنت وخارجها ليست مؤثرة إلى حد كبير بشكلها الحالي؛ ففي بدايات 2019، قام موقع التدقيق سنوبس -الذي عقد شراكة مع فيسبوك في جهود التدقيق- بفض هذه الشراكة. وفي مقابلة مع معهد بوينتر، قال فيني جرين، نائب رئيس سنوبس للعمليات: "لا يبدو أننا نسعى إلى جعل التدقيق الخارجي أكثر فعالية في التطبيق بالنسبة للناشرين، بل يبدو أننا نسعى لجعله أكثر سهولة بالنسبة لفيسبوك".

ما زالت فيسبوك والمؤسسات المشابهة لها تعتمد على مجموعات صغيرة -عادة من المنظمات غير الربحية- لتدقيق المحتوى، وغالباً ما تقدم المقالات أو الفيديوهات التي يحتمل أنها مزيفة إلى هذه المجموعات دون أية معلومات إضافية حول سبب أو كيفية اختيارها للتدقيق في المقام الأول.

وهذه الجهود لا تهدف إلى مساعدة المنظمات الإخبارية في تدقيق الكميات الهائلة من المحتوى أو الأدلة التي تتلقاها يومياً من أجل تحسين أداء مراسليها الذين يرزحون تحت ضغط العمل، بل تهدف إلى مساعدة شركة ضخمة ما في الحفاظ على مظهرها الملتزم والمنظم بأسلوب ردود الفعل الارتجالية. لقد حان الوقت حتى تتحمل فيسبوك مسؤولية تدقيق الحقائق بنفسها داخلياً، بدلاً من إيكال مهمة تدقيق أو دحض الأخبار إلى مجموعات أخرى، كما يجب أن تكف فيسبوك وغيرها من شركات التواصل الاجتماعي أيضاً عن الاعتماد على التدقيق اللاحق، أي فقط بعد انتشار مقالة مزيفة ما. يجب أن تقوم هذه الشركات بتصميم نظام إنذار مبكر للدعاية الحاسوبية.

تقوم فيسبوك وجوجل وغيرها من الشركات بتوظيف العديد من الأشخاص خصيصَى للعثور على المحتوى الذي يتضمن العنف أو معلومات من مجموعات إرهابية وإزالته، غير أنها أقل صرامة بكثير في وجه المعلومات المزيفة. إن تعدد سياقات تدفق المعلومات المزيفة على الإنترنت -بدءاً من الانتخابات في الهند وصولاً إلى الأحداث الرياضية الكبيرة في جنوب أفريقيا- يزيد من صعوبة عمل الذكاء الاصطناعي وحده دون الاعتماد على المعرفة البشرية، ولكن في الأشهر والسنوات المقبلة، سنحتاج إلى حشود كاملة من المدققين حول العالم لإجراء تدقيق فعال للكميات الهائلة من المحتوى الذي سيظهر في ظروف لا تعد ولا تحصى.

ببساطة، لا يوجد حل سهل لمشكلة الدعاية الحاسوبية على وسائل التواصل الاجتماعي، ولكن مسؤولية معالجة هذه المشكلة تفع على عاتق الشركات. حتى الآن، يبدو أن فيسبوك تركز على العلاقات العامة أكثر بكثير من تنظيم تدفق الدعاية الحاسوبية أو المحتوى الضار. ووفقاً لموقع ذا فيرج، فإن الشركة تمضي من الوقت في الاحتفاء بجهودها في إزالة محتوى ضار محدد أكثر بكثير مما تمضيه في العمل المنهجي على إجراء تعديلات شاملة في نظام التدقيق لديها.

أكثر من التدقيق
في نهاية المطاف، سنتوصل إلى تركيبة ما من الجهد البشري والذكاء الاصطناعي بحيث ننجح في مكافحة الدعاية الحاسوبية، ولكننا لا ندري بالضبط كيف سيحدث هذا. يعمل التدقيق المعزز بالذكاء الاصطناعي بطريقة واحدة فقط، ولكن التعاون بين التعلم الآلي والعميق والبشر يستطيع مكافحة الدعاية الحاسوبية والمعلومات المزيفة والمضايقة السياسية بعدة أساليب أخرى.

قامت حاضنة جيغسو التكنولوجية في جوجل -حيث عملت باحثاً زميلاً لسنة واحدة- بتصميم وبناء أداة تعتمد على الذكاء الاصطناعي باسم بيرسبيكتيف، وذلك لمكافحة إذكاء النزاع وخطاب الكراهية على الإنترنت. لم أعمل على هذه الأداة شخصياً، ولكنني أعرف أنها عبارة عن واجهة لبرمجة التطبيقات تسمح للمطورين بكشف اللغة الضارة آلياً.

إنها مثيرة للجدل، ولا يقتصر السبب على كونها معرضة لإطلاق إنذارات خاطئة -أي تحديد منشورات لا تتضمن فعلياً أية كراهية أو إساءة- ولكن أيضاً لأنها تقوم بتعديل الخطاب. ووفقاً لمجلة وايرد، فقد تم تدريب الأداة باستخدام التعلم الآلي، ولكن أية أداة مماثلة تعتمد أيضاً في تدريبها على معلومات دخل من البشر، الذين يتسمون بتحيزاتهم الخاصة بهم. وبالتالي، هل يمكن أن تفشل أداة مخصصة لكشف اللغة الضارة أو العنصرية بسبب أخطاء في التدريب؟

في 2016، أطلقت فيسبوك أداة ديب تيكست، وهي أداة مماثلة لبيرسبيكتيف من جوجل وتعتمد على الذكاء الاصطناعي. تقول الشركة إنها ساعدت على حذف أكثر من 60,000 منشور لبث الكراهية في الأسبوع الواحد. غير أن فيسبوك أقرّت أن الأداة ما زالت تعتمد على مجموعة كبيرة من المدققين البشر للتخلص من المحتوى المسيء فعلياً. في هذه الأثناء، بدأت تويتر في نهاية 2017 أخيراً بتطبيق بعض الإجراءات لزيادة دقة عملها في حظر المنشورات الخطيرة أو العنيفة، ولكن -بالرغم من أنها بدأت بكبح جماح هذه المواد الإشكالية وحذف العشرات من حسابات البوتات السياسية- لم تقدم تويتر أية إشارات واضحة حول كيفية كشف وحذف الحسابات. وما زلت أعثر، بالتعاون مع زملائي الباحثين، على أعداد هائلة من البوتات الخبيثة المخصصة للتلاعب على تويتر تقريباً كل شهر.

ما بعد الأفق
ليس من المفاجئ أن شخصاً تكنولوجياً مثل زوكربيرج يقترح حلاً تكنولوجياً، ولكن الذكاء الاصطناعي ليس مثالياً بحد ذاته. إن التركيز الأعمى لكبار الشركات التكنولوجية على الحلول الحاسوبية يعكس السذاجة والعجرفة التي أدت بفيسبوك وغيرها إلى ترك المستخدمين عرضة للاختراق في المقام الأول.

لم نصل بعد إلى مرحلة وجود جيوش كاملة من بوتات الذكاء الاصطناعي التي تعمل على التلاعب بالرأي العام خلال الانتخابات الحساسة. ولكن هل سيحدث هذا في المستقبل؟ ربما، ولكن من المهم ألا ننسى أن هذه الجيوش من البوتات السياسية الذكية غير قادرة على العمل بشكل مستقل؛ فسوف تبقى في حاجة إلى الإشراف البشري حتى تتمكن من التلاعب بالآخرين وخداعهم. نحن لسنا في مواجهة مع نسخة رقمية على الإنترنت من الروبوت القاتل في فيلم Terminator. كما أن الكثيرين من كبار الباحثين في حقول علوم الحاسوب والذكاء الاصطناعي -بمن فيهم إيد فيجينبوم الفائز بجائزة تيورينج وجوف هينتون "عراب التعلم العميق"- قد شككوا إلى حد كبير في المخاوف حول ظهور "التفرد" (أي الآلات الذكية التي لا يمكن إيقافها) قريباً. وفي استبيان بين زملاء الجمعية الأميركية للذكاء الاصطناعي، قال أكثر من 90% منهم إن الذكاء الاصطناعي الخارق "أبعد من الأفق المنظور"، كما يتفق معظم هؤلاء الخبراء أيضاً على أن الحواسيب خارقة الذكاء لن تشكل خطراً على البشرية في حال ظهورها حقاً.

يشير باحثون يعملون على تتبع أحدث التطورات في الذكاء الاصطناعي من جامعة ستانفورد إلى أن "أسيادنا الآليين" في الوقت الحالي "لم يصلوا بعد إلى مستوى الذكاء العام حتى لطفل في الخامسة من عمره"، إذن فكيف يمكن لهذه الأدوات أن تنقلب على حكم البشر، أو تتمكن مثلاً من حل المشاكل البشرية الاجتماعية المعقدة، مثل الاستقطاب السياسي وتراجع التفكير النقدي؟ لقد عبرت وول ستريت جورنال عن هذه الفكرة بالمختصر المفيد في 2017: "من دون البشر، ما زال الذكاء الاصطناعي شديد الغباء".

يشعر جريدي بوتش -وهو من كبار خبراء الذكاء الاصطناعي- أيضاً بالشك إزاء إمكانية صعود الآلات المتمردة خارقة الذكاء، ولكن لسبب مختلف. ففي أحد لقاءات تيد في 2016، قال إن "الشعور بالقلق الآن إزاء صعود الذكاء الاصطناعي الخارق يمثل بعدة طرق تشتيتاً خطراً للانتباه؛ لأن صعود الحوسبة نفسها سيجلب معه عدداً من المشاكل الإنسانية والاجتماعية التي يجب أن نعمل الآن على حلها". وشدد بوتش أيضاً على أن الأمر الأهم هو أن أنظمة الذكاء الاصطناعي قادرة على القيام بالكثير من الأشياء المدهشة، بدءاً من التحاور مع البشر باللغة الطبيعية وصولاً إلى التعرف على الأشياء، ولكن هذه المسائل تخضع لقرارات البشر وتحمل القيم البشرية. إن أنظمة الذكاء الاصطناعي لا تُبرمج، بل تُعلّم كيفية التصرف. يقول بوتش: "بالتعبير العلمي، هذا ما نسميه بالحقيقة الراسخة. وهذه النقطة الهامة: إن إنتاجنا لهذه الآلات يقتضي تعليمها قيمنا، وبهذا يمكنني أن أثق في الذكاء الاصطناعي بنفس درجة ثقتي في شخص مدرب جيداً، إن لم يكن أكثر".

سأتوسع في فكرة بوتش إلى درجة إضافية، حيث إن معالجة مشكلة الدعاية الحاسوبية يتطلب التركيز على الأشخاص الذين يقفون خلف الأدوات.

أجل، إن التكنولوجيا دائمة التطور قادرة على أتمتة نشر المعلومات المزيفة والكراهية. ويمكن أن تسمح للأطراف الخبيثة بالعمل بشكل خفي دون التعرض للكشف. ولكن مجموعة الأدوات هذه -بوصفها نمطاً من الاتصال السياسي- تركز في نهاية المطاف على تحقيق هدف بشري، وهو السيطرة. إن الدعاية اختراع بشري، وهي قديمة قدم المجتمع نفسه، وكما قال لي أحد خبراء الروبوتات ذات مرة: يجب ألا نخشى من الآلات التي تتمتع بذكاء البشر، بل من البشر الذي لا يتمتعون بالذكاء الكافي لإدراك كيفية وأبعاد بناء هذه الآلات.

هذه المقالة مقتطفة من كتاب "The Reality Game: How the Next Wave of Technology Will Break the Truth (لعبة الواقع: كيف ستؤدي الموجة التكنولوجية الجديدة إلى تحطيم الحقيقة)"، بقلم سامويل وولي.

المحتوى محمي