هل نحن مستعدون لمجتمع يشكل فيه الذكاء الاصطناعي الرأي العام؟

3 دقيقة
3 أنواع من الشركات من المتوقع أن تفرزها النماذج اللغوية الكبيرة
حقوق الصورة: أنسبلاش.

يتجادل الملايين من الأشخاص فيما بينهم عبر الإنترنت كل يوم، لكن نادراً ما يغير أحدهم رأيه. يشير بحث جديد إلى أن النماذج اللغوية الكبيرة قد تتفوق على البشر في القدرة على المحاججة، وتشير هذه النتيجة إلى أن الذكاء الاصطناعي يمكن أن يصبح أداة قوية لإقناع الناس، سواء بما فيه نفع لهم أو بما فيه ضرر لهم.

فقد وجد فريق من الباحثين من عدة جامعات أن النموذج جي بي تي 4 من شركة أوبن أيه آي كان أكثر إقناعاً من البشر إلى حد كبير عندما منح القدرة على تكييف حججه باستخدام معلومات شخصية عن الشخص الذي يناقشه.

والنتائج التي توصلوا إليها هي الأحدث في مجموعة متزايدة من الأبحاث التي تظهر قدرة النماذج اللغوية الكبيرة على الإقناع. ويحذر المؤلفون من أنهم يظهرون كيف يمكن لأدوات الذكاء الاصطناعي صياغة حجج معقدة ومقنعة إذا كان لديها الحد الأدنى من المعلومات عن البشر الذين تتفاعل معهم. وقد نُشر البحث في مجلة "نيتشر هيومان بيهيفيور".

اقرأ أيضاً: 8 نصائح لتحسين دقة إجابات تشات جي بي تي وتقليل ظاهرة الهلوسة

مستوى تكنولوجي قد تشكل فيه الآلة الرأي العام!

يقول عالم الفيزياء المتعدد التخصصات في مؤسسة برونو كيسلر في إيطاليا، ريكاردو غالوتي، الذي عمل على المشروع: "يجب على صانعي السياسات والمنصات الإلكترونية أن يفكروا بجدية في التهديد الذي تشكله حملات التضليل المنسقة القائمة على الذكاء الاصطناعي، حيث من الواضح أننا وصلنا إلى المستوى التكنولوجي الذي يمكن فيه إنشاء شبكة من الحسابات الآلية القائمة على النماذج اللغوية الكبيرة القادرة على توجيه الرأي العام استراتيجياً في اتجاه واحد".

ويضيف قائلاً: "يمكن استخدام هذه البوتات لنشر المعلومات المضللة، وسيكون من الصعب جداً فضح هذا النوع من التأثير المنتشر في الزمن الحقيقي".

أجرى الباحثون دراستهم على 900 شخص من المقيمين في الولايات المتحدة الأميركية وطلبوا منهم تقديم معلومات شخصية مثل النوع الاجتماعي والسن والعرق والمستوى التعليمي والحالة الوظيفية والانتماء السياسي.

ثم وزعوا المشاركين بحيث يكون لكل مشترك منهم خصم مقابل، وهذا الخصم إما بشري آخر وإما جي بي تي 4، وطلب منهم مناقشة واحد من 30 موضوعاً اختيرت عشوائياً -مثل إن كان ينبغي للولايات المتحدة حظر الوقود الأحفوري، أو إن كان يجب على الطلاب ارتداء زي مدرسي موحد- مدة 10 دقائق. طلب من كل مشارك أن يجادل إما لصالح الموضوع وإما ضده، وقد زودوا في بعض الحالات بمعلومات شخصية عن خصمهم، حتى يتمكنوا من صياغة حجتهم بصورة أفضل. في النهاية، عبر المشاركون عن مدى موافقتهم على الاقتراح وإن كانوا يعتقدون أن من كان يجادلهم هو إنسان أو ذكاء اصطناعي.

اقرأ أيضاً: هل سنصل إلى الذكاء الاصطناعي العام الذي سيتجاوز قدرات البشر خلال 5 سنوات؟

قدرات جي بي تي 4 على الإقناع تفوق البشر

عموماً، وجد الباحثون أن قدرات جي بي تي 4 إما أنها تعادل قدرات الإقناع لدى المشاركين البشر في المواضيع كلها وإما تفوقها. وقد اعتبر الباحثون أن الذكاء الاصطناعي عندما كانت لديه معلومات عن خصومه، كان أكثر إقناعاً بنسبة 64% من المشاركين البشر الذين لم يتمكنوا من الوصول إلى البيانات الشخصية، ما يعني أن جي بي تي 4 كان قادراً على الاستفادة من البيانات الشخصية التي تخص خصمه بفعالية أكبر بكثير من نظرائه من البشر. وعندما تمكن المشاركون البشر من الوصول إلى المعلومات الشخصية، وجد الباحثون أنهم كانوا أقل إقناعاً بقليل من المشاركين البشر الذين لم يتمكنوا من الوصول إلى البيانات الشخصية نفسها.

لاحظ المؤلفون أنه عندما اعتقد المشاركون أنهم يناقشون الذكاء الاصطناعي، كانوا أكثر ميلاً للاتفاق معه. يقول الباحثون إن الأسباب الكامنة وراء ذلك غير واضحة، ما يسلط الضوء على الحاجة إلى إجراء المزيد من الأبحاث حول كيفية تفاعل البشر مع الذكاء الاصطناعي.

يقول غالوتي: "لم نتمكن بعد من تحديد إن كان التغيير الملحوظ في التوافق مدفوعاً بمعتقدات المشاركين بأن خصمهم هو بوت (بما أنني أعتقد أنه بوت، فإن نجاحي في تغيير أفكاره يجعلني قادراً على هزيمة أي شخص أناقشه)، أو إن كانت هذه المعتقدات هي بحد ذاتها نتيجة لتغيير الرأي (بما أنني خسرت، فلا بد أن من ناقشته هو بوت). هذا الاتجاه السببي هو سؤال مفتوح مثير للاهتمام يستحق الاستكشاف".

وسيلة فعالة لنشر حملات التضليل باستخدام النماذج اللغوية الكبيرة

على الرغم من أن التجربة لا تعكس الآلية التي يدور وفقها النقاش بين البشر عبر الإنترنت، فإن البحث يشير إلى أن النماذج اللغوية الكبيرة يمكن أن تثبت أيضاً أنها وسيلة فعالة ليس فقط لنشر حملات التضليل الجماهيرية، بل أيضاً لمواجهة هذا النوع من الحملات، على حد قول غالوتي. على سبيل المثال، يمكنها أن تولد روايات مضادة مخصصة لتثقيف الأشخاص الذين قد يكونون عرضة للخداع في المحادثات التي يخوضونها عبر الإنترنت. ويقول: "مع ذلك، ثمة حاجة ماسة إلى إجراء المزيد من الأبحاث لاستكشاف استراتيجيات فعالة للحد من هذه التهديدات".

مع أننا نعرف الكثير عن كيفية تفاعل البشر بعضهم مع بعض، إلا أننا لا نعرف سوى القليل جداً عن علم النفس الكامن وراء كيفية تفاعل الناس مع نماذج الذكاء الاصطناعي، على حد قول الزميلة في كلية دارتموث، أليكسيس بالمر، التي درست أساليب المجادلة التي تتبعها النماذج اللغوية الكبيرة بشأن السياسة، ولكنها لم تشارك في البحث.

تقول بالمر: "في سياق إجراء محادثة مع شخص ما حول مسألة تختلفان عليها، هل ثمة جانب بشري فطري يؤثر في هذا التفاعل؟ أم إننا سنحصل على النتيجة نفسها تماماً إذا تمكن الذكاء الاصطناعي من محاكاة هذا الكلام بدقة؟ أعتقد أن هذا هو السؤال الأهم في الذكاء الاصطناعي".

المحتوى محمي