في نهاية شهر مايو/أيار، أضافت شركة أوبن أيه آي (OpenAI) "سابقة" جديدة إلى تاريخها بين الشركات. لم تكن هذه السابقة نموذجاً لغوياً أكثر قدرة حتى من النماذج السابقة أو شراكة جديدة تتعلق بالبيانات، بل تقريراً يفصح عن جهات خبيثة أساءت استخدام منتجاتها لتنفيذ عمليات تأثير. فقد ضبطت الشركة خمس شبكات من مروجي الدعاية الذين يعملون خفية -بما فيها بعض جهات فاعلة من روسيا والصين وإيران وغير ذلك- ويستخدمون أدوات الذكاء الاصطناعي التوليدي التي صممتها الشركة في أساليب مخادعة تتراوح بين إنتاج كميات كبيرة من التعليقات على منصات التواصل الاجتماعي بعدة لغات وصولاً إلى تحويل المقالات الإخبارية إلى منشورات على منصة فيسبوك.
اقرأ أيضاً: ما هو الذكاء الفائق الذي يسعى العالِم المستقيل من أوبن إي آي للوصول إليه عبر شركته الجديدة؟
وأشارت أوبن أيه آي إلى أن استخدام هذه الأدوات كان يهدف، على ما يبدو، إلى تحسين المخرجات كماً ونوعاً. يعزز الذكاء الاصطناعي إنتاجية مروجي الدعاية أيضاً؛ أولاً وقبل كل شيء، تستحق أوبن أيه آي الثناء على هذا التقرير والسابقة التاريخية التي نأمل أن يتسبب بإرسائها. لطالما توقع الباحثون منذ فترة طويلة أن تعمد الجهات الفاعلة العدائية إلى تبنّي تكنولوجيات الذكاء الاصطناعي التوليدي، خصوصاً النماذج اللغوية الكبيرة، حتى توسّع نطاق عملها ومقدراتها بتكلفة زهيدة. هذا الإفصاح الشفاف الذي يشير إلى أن هذا الأمر قد بدأ فعلاً -وأن أوبن أيه آي قد وضعت كشف هذه العمليات وإغلاق الحسابات المرتبطة بها لتخفيف أثرها في رأس سلم أولوياتها- يظهر أنه ثمة شركة ذكاء اصطناعي كبيرة واحدة على الأقل تعلمت درساً حقيقياً من المساعي الحثيثة التي بذَلتها منصات التواصل الاجتماعي في السنوات التي تبعت تدخل روسيا في الانتخابات الرئاسية الأميركية عام 2016.
عندما كُشفت حالة إساءة الاستخدام تلك، بادرت منصات فيسبوك ويوتيوب وتويتر (التي أصبح اسمها الآن إكس [X]) إلى تشكيل فرق للنزاهة، والإفصاح بصورة منتظمة عن عمليات التأثير التي تُنَفذ على تلك المنصات. (الجدير بالذكر أن إكس أوقفت هذا النشاط بعد أن اشترى إيلون ماسك الشركة).
في الواقع، فإن إفصاح أوبن أيه آي يذكر بتقرير مشابه للغاية أطلقته شركة ميتا (Meta) قبل يوم وحسب. فقد كشف تقرير الشفافية لشركة ميتا عن الربع الأول من عام 2024 عن إيقاف ست عمليات سرية على منصتها، وقد اكتشفت الشركة أيضاً شبكات مرتبطة بالصين وإيران وغيرها، ولاحظت استخدام محتوى ولّده الذكاء الاصطناعي. فقد نشر مروجو دعاية من الصين صوراً تبدو مُوَلدة باستخدام الذكاء الاصطناعي من نوع الملصقات الدعائية لصالح "حركة ناشطة وهمية مؤيدة للسيخ". كما نشرت شركة تسويق سياسي ما يُرجّح أنه تعليقات مُوَلدة باستخدام الذكاء الاصطناعي. أيضاً، أشار تقرير ميتا إلى أن أحد أطراف التهديد الروسية المثابرة للغاية ما زال نشطاً جداً، وأن استراتيجياته تتطور باستمرار. وربما كان الأهم من ذلك أن ميتا وضعت في تقريرها مجموعة واضحة من "التوصيات التي تدعو قطاع التكنولوجيا لإظهار استجابة أقوى"، داعية الحكومات والباحثين والشركات التكنولوجيا الأخرى إلى تبادل المعلومات الاستقصائية حول التهديدات بصورة تعاونية للمساعدة على تعطيل الحملة الروسية المتواصلة.
كيفية تأثير أدوات الذكاء الاصطناعي في طريقة شن الحملات الدعائية
نحن اثنان من هؤلاء الباحثين، وقد درسنا عمليات التأثير التي تُنفذ باستخدام الإنترنت سنوات عديدة. وقد نشرنا تحقيقات عن نشاطات منسقة -بالتعاون مع المنصات في بعض الأحيان- وحللنا كيفية تأثير أدوات الذكاء الاصطناعي في طريقة شن الحملات الدعائية. وقد وجدت الأبحاث التي أجراها فريقنا، والتي خضعت لمراجعة الأقران، أن النماذج اللغوية يمكن أن تنتج نصوصاً تكاد تصل من حيث قدرتها على الإقناع إلى مستوى الدعاية التي يكتبها البشر في حملاتهم. لقد شهدنا استمرار انتشار عمليات التأثير على كل منصة من منصات التواصل الاجتماعي، وتركيزها على كل منطقة من مناطق العالم، وقد وصلت إلى مرحلة تحولت فيها إلى إحدى الركائز الأساسية للعبة الحروب الدعائية (البروباغاندا).
تمثّل منصات التواصل الاجتماعي وانتشارها الواسع عاملَ جذبٍ بالنسبة إلى خصوم الدولة وشركات العلاقات العامة المرتزقة. وبالنسبة إلى الأنظمة الاستبدادية على وجه الخصوص، يمكن إطلاق حملات كهذه دون أي سلبيات تقريباً، لا سيما في عام انتخابات حاسمة على مستوى العالم. حالياً، يستخدم الخصوم بوضوح تكنولوجيات الذكاء الاصطناعي التي قد تجعل كشف هذه النشاطات أصعب من ذي قبل. بدأت وسائل الإعلام تكتب عن "انتخابات الذكاء الاصطناعي"، وبدأ الذعر يُخيّم على الكثير من الجهات الرقابية، لكن من المهم أن نضع هذا كله في سياقه الصحيح. فمعظم حملات التأثير التي أعلنتها أوبن أيه آي وميتا لم تؤدِ إلى أثر يذكر، وهو شيء بذلت هذه الشركات جهوداً كبيرة لتوضيحه.
اقرأ أيضاً: كيف يؤدي الذكاء الاصطناعي التوليدي إلى تفاقم انتشار المعلومات المزيفة والدعاية المغرضة؟
ومن المهم التأكيد مرة أخرى أن المساعي تختلف عن المشاركة، فمجرد وجود حسابات أو صفحات مزيفة لا يقتضي بالضرورة أن الأشخاص الحقيقيين يعيرونها أي اهتمام. وبالمثل، فإن مجرد استخدام الحملة للذكاء الاصطناعي لا يعني أنها ستؤثّر في الرأي العام. يخفف الذكاء الاصطناعي التوليدي تكلفة تشغيل حملات الدعاية، ما يجعل تكاليف إنتاج المحتوى وتشغيل الحسابات المؤتمتة التفاعلية أقل بكثير. لكنه ليس حلاً سحرياً، وفي حالة العمليات التي كشفت عنها أوبن أيه آي، فقد بدا المحتوى المُوَلد في بعض الأحيان أقرب إلى رسائل البريد الإلكتروني العشوائية، ولم تتمكن هذه الرسائل من خداع الجمهور. ففي نهاية المطاف، إنتاج المحتوى ليس سوى خطوة أولى في حملة دعاية، فحتى أكثر المنشورات والصور والمقاطع الصوتية المُوَلدة باستخدام الذكاء الاصطناعي إقناعاً ما زالت في حاجة إلى أن تنتشر كي تحقق المطلوب منها.
وغالباً ما ينتهي المطاف بالحملات التي تفتقر إلى تعزيز الانتشار باستخدام الخوارزميات أو تحقيق الشعبية لدى المؤثرين إلى التغريد في الفراغ. وبالفعل، فإن المؤثرين الحقيقيين بصورة مستمرة -وهم الأشخاص الذين يحظون باهتمام عدد ضخم من الجماهير التي تُعيد مشاركة منشوراتهم بحماسة- يتلقون التفاعل ويقودون الحوارات العامة، ما يساعد على الانتشار الفيروسي للمحتوى والروايات المختلفة. ولهذا، يبادر بعض الخصوم من ذوي الموارد الجيدة، مثل الصين، إلى توظيف تلك الأصوات خلسة ببساطة. في هذه المرحلة، تتمتّع الحسابات الحقيقية المؤثرة بقدرة أكبر بكثير على التأثير من الحسابات المزيفة التي تعتمد على الذكاء الاصطناعي.
الحجم الحقيقي لمخاطر الذكاء الاصطناعي في الدعاية
وعلى الرغم من هذا، ثمة الكثير من المخاوف من أن يتمكن الذكاء الاصطناعي من عرقلة السياسات الأميركية، والتحول إلى خطر يهدد الأمن القومي. من المهم أن "نحدد الحجم الحقيقي" لهذا الخطر، لا سيما في هذا العام الانتخابي. قد تؤدي المبالغة في تأثير حملات التضليل إلى تقويض الثقة في الانتخابات والإيمان بالديمقراطية، حيث يتهيأ للناخبين وجود ناشري كراهية ومعلومات مزيفة خلف كل منشور على الإنترنت، أو أن مجرد استهداف أي مرشح من قبل جهة خبيثة، حتى بحملة ضعيفة للغاية، "تسبب" بخسارة هذا المرشح.
اقرأ أيضاً: كيف يمكنك تجربة المساعدات الرقمية التي أطلقتها أوبن أيه آي وجوجل مؤخراً؟
وضعت أوبن أيه آي تقييم أثر هذه الأساليب في موضع بارز للغاية في تقريرها الأول، ما يعني أنها تأخذ مخاطر المبالغة في تقدير مستوى التهديد على محمل الجد. غير أن الاستخفاف بالتهديد أو عدم نشر فرق النزاهة -ما يعني السماح لناشري الكراهية والمعلومات المزيفة على الإنترنت ببساطة بمواصلة زيادة متابعيهم وتحسين قدراتهم على التوزيع- سيكون أسلوباً خاطئاً أيضاً. في الواقع، أشار تقرير ميتا إلى أن إحدى الشبكات التي أوقفت عملها، وهي على ما يبدو ذات صلة بحزب سياسي في بنغلادش وتستهدف الجمهور البنغلادشي، تمكنت من جمع 3.4 ملايين متابع عبر 98 صفحة.
وبما أن هذه الشبكة لم يكن يدريها خصم ذو أهمية خاصة بالنسبة إلى الأميركيين، فمن المرجّح ألا تحوز كثيراً من الاهتمام، غير أن هذا المثال يؤكد أن التهديد عالمي، وأن اليقظة أمر أساسي. يجب أن تستمر المنصات بمنح عمليات كشف المخاطر أولوية قصوى. إذاً، ماذا علينا أن نفعل إزاء هذه المسألة؟ على الرغم من أن دعوة تقرير ميتا إلى تبادل المعلومات حول التهديدات والتعاون في مكافحتها كانت تتعلق بخصم روسي تحديداً، فإنها تُسلّط الضوء على مسار مستقبلي أوسع لمنصات التواصل الاجتماعي وشركات الذكاء الاصطناعي والباحثين الأكاديميين على حد سواء.
وتُعَدّ الشفافية بالغة الأهمية. بما أننا باحثان مستقلان، يمكننا تعلم الكثير عن توصيف شركة تواصل اجتماعي للعملية التي أوقفتها. وينطبق هذا على عامة الناس وصانعي السياسات أيضاً، يجب ألا تؤخذ المنصات ذات النفوذ الهائل على محمل الجد. إن ضمان وصول الباحثين إلى البيانات المتعلقة بشبكات زائفة تعمل بصورة منسقة، يوفّر فرصة لإجراء تحقق خارجي من صحة مزاعم الشركة التكنولوجية (بل وربما دحضها!). قبل استحواذ ماسك على تويتر، كانت الشركة تنشر بصورة منتظمة مجموعات بيانات من المنشورات المأخوذة من حسابات مزيفة تتبع لجهات حكومية حتى يطلع عليها الباحثون، بل وحتى العامة أيضاً. وقد شاركت ميتا البيانات مع شركاء خارجيين قبل إزالة الشبكات، ومؤخراً، انتقلت إلى نموذج عمل يعتمد على مشاركة المحتوى من الشبكات التي أزيلت تماماً من خلال أرشيف أبحاث عمليات التأثير الذي تمتلكه ميتا. وعلى حين يجب أن يستمر الباحثون في سعيهم للحصول على المزيد من البيانات، فقد سمحت هذه الجهود بفهم الروايات والسلوكيات العدائية فهماً عميقاً إلى حد يتجاوز ما ورد في ملخصات تقرير الشفافية الخاص بالمنصة نفسها.
قواعد البيانات الخاصة بإساءة الاستخدام
ويجب أن يكون تقرير التهديدات المعادية الصادر عن أوبن أيه آي بمثابة مقدمة نحو أسلوب أقوى لمشاركة البيانات في المستقبل. فيما يتعلق بالذكاء الاصطناعي، بدأ الباحثون المستقلون يجمعون قواعد البيانات الخاصة بإساءة الاستخدام -مثل قاعدة بيانات حوادث الذكاء الاصطناعي (AI Incident Database) وقاعدة بيانات حوادث المزيفات العميقة السياسية (Political Deepfakes Incident Database)- التي تُتيح للباحثين مقارنة أنواع مختلفة من إساءة الاستخدام، وتتبع تغيرات إساءة الاستخدام مع مرور الوقت. غير أن كشف إساءة الاستخدام بالاعتماد على المراقبة الخارجية فقط غالباً ما يكون صعباً.
ومع تطور قدرات أدوات الذكاء الاصطناعي وازدياد انتشارها، أصبح من المهم بالنسبة إلى صُنّاع السياسات الذين يفكرون في التنظيم أن يفهموا كيفية استغلال هذه الأدوات وإساءة استخدامها. وعلى حين قدمّ أول تقرير من أوبن أيه آي ملخصات عالية المستوى وأمثلة مختارة، فإن توسيع علاقات تبادل البيانات مع الباحثين التي توفّر مزيداً من الوضوح على المحتوى العدائي والسلوكيات العدائية يمثّل الخطوة التالية المهمة. كما أن مكافحة عمليات التأثير وإساءة استخدام الذكاء الاصطناعي تستوجب مشاركة المستخدمين على الإنترنت. ففي نهاية المطاف، لا تأثير لهذا المحتوى إلّا عندما يراه الناس ويصدقونه ويسهمون في نشره على نطاق أوسع.
اقرأ ايضاً: كيف يستخدم مجرمو الإنترنت الذكاء الاصطناعي لإنشاء هويات مزيفة؟ وكيف تحمي نفسك؟
ففي إحدى الحالات التي كشفت عنها أوبن أيه آي، فضح المستخدمون عبر الإنترنت حسابات مزيفة تستخدم نصوصاً مولدة باستخدام الذكاء الاصطناعي. وفي بحثنا الخاص، شاهدنا على فيسبوك مجتمعات من المستخدمين الذين يبادرون استباقياً إلى فضح محتوى الصور الذي ولده مرسلو البريد العشوائي والمحتالون باستخدام الذكاء الاصطناعي، ما يساعد أولئك الذين هم أقل وعياً بهذه التكنولوجيا على تجنب الوقوع فريسة للخداع. لا ضير في جرعة صحية من التشكيك فهي مفيدة بصورة متزايدة؛ فتأملُ المحتوى برهة من الزمن للتحقق إن كان حقيقياً وإن كانت هوية الأشخاص مطابقة لزعمهم فعلاً، ومساعدة الأصدقاء وأفراد العائلة على تعزيز وعيهم بشأن الانتشار المتزايد للمحتوى الذي يجري توليده، يمكن أن يساعد مستخدمي منصات التواصل الاجتماعي على مقاومة خداع مروجي الدعاية والمحتالين على حد سواء. وقد عبّرت أوبن أيه آي عن هذه المسألة بإيجاز في إعلانها عن تقرير مكافحة الشبكات من خلال منشور مدونة: "جهات التهديد الفاعلة تعمل عبر الإنترنت". وهذا ما يجب أن نفعله أيضاً. بينما ننتقل إلى حقبة جديدة من عمليات التأثير التي تعتمد على الذكاء الاصطناعي، يجب أن نتصدى للتحديات المشتركة من خلال الشفافية، ومشاركة البيانات، واليقظة التعاونية، إن كنا نأمل في تطوير بيئة عمل رقمية أكثر مرونة.