لا تصدق نصف ما ترى ولا ربع ما تسمع وتحقق من كل ما تقرأ

4 دقيقة
لا تصدق نصف ما ترى ولا ربع ما تسمع وتحقق من كل ما تقرأ
حقوق الصورة: shutterstock.com/NicoElNino

نداء إلى القلوب الرحيمة

في أحد الأحياء الفقيرة، يعيش أبو خالد السلمي، رجل ستيني كان يعمل نجاراً، لكنه فقد عمله بعد حادث أفقده القدرة على تحريك يده اليمنى. لديه ابنة وحيدة، "سارة"، لم تتجاوز العاشرة، تعاني مرضاً في القلب يحتاج إلى جراحة عاجلة.

كل يوم، يجلس أبو خالد أمام المستشفى، ينظر إلى المارة بعينين مبللتين، يحمل بين يديه ملف ابنته، ويهمس: "سارة تحتاج إليكم.. أي مبلغ، ولو قليل، قد يُنقذ حياتها".

في أحد الأيام، أغلق الطبيب الملف بحزن: "لم يعد لدينا وقت".. لكن الأمل لم يمت، فقلوب الخير لا تزال تنبض. تبرع بسيط قد يكون الفرق بين الحياة والموت لطفلة بريئة وأب مكسور. هل ستتركها تنتظر أم ستكون منقذها؟

هذه القصة كتبها تشات جي بي تي، دون أي تدخل بشري.

هل أثارت لديك مشاعر الحزن؟ هل كنت لتتبرع لو وجدت رقم حساب بنكي في نهاية القصة؟

هذا المثال لا يدعو إلى عدم تصديق أي حالة إنسانية، فهناك الكثير ممن يجدر بك التبرع لهم ومساعدتهم، لكنه دعوة للتيقظ والحذر.

اليوم، أصبح الذكاء الاصطناعي مهندساً خفياً يُعيد تشكيل الطريقة التي نرى بها العالم. فقد كشفت دراسة حديثة نُشِرت مؤخراً أن 57% من المحتوى النصي على الإنترنت اليوم مُنشأ باستخدام الذكاء الاصطناعي. فما معنى ذلك بالنسبة لك؟ يعني هذا أن المحتوى الذي نستهلكه يومياً لم يعد يُكتب أو يُنتج بصفة أساسية من قبل البشر، بل إنه مولَّد بواسطة خوارزميات. قد تقرأ قصة مؤثرة مرفقة بصور حزينة، لكن في الواقع، قد لا يكون خلف تلك الكلمات كاتب بشري. ربما تتفاعل مع صورة صادمة مزيفة، أو تشعر بالتعاطف مع ألم ومعاناة لشخص غير موجود في الواقع مثل أبو خالد.

هذه الظاهرة التي تُعرف بـ "نظرية الإنترنت الميتة"، تعني أننا نشهد تراجعاً في المشاركة البشرية الحقيقية. الإنترنت، التي كانت في بداياتها مساحة للتواصل البشري وتبادل الأفكار، أصبحت الآن تعج بمحتوى آلي. هذا التغيير يؤثّر على نحو كبير في كيفية تفاعلنا مع العالم الرقمي؛ حيث تصبح المشاعر والتجارب شيئاً اصطناعياً بعيداً عن الواقع. من أكثر المخاوف المرتبطة بهذه النظرية هي كيف يؤثّر الذكاء الاصطناعي في إدراكنا للواقع، حيث تتحكم الخوارزميات في المعلومات التي تصل إلينا، وبالتالي تصوغ وجهات نظرنا وسلوكياتنا بطرق غير مرئية.

اقرأ أيضاً: كيف تحمي نفسك من المعلومات العلمية المزيفة التي تنشئها نماذج الذكاء الاصطناعي التوليدي؟

من غرفة الصدى إلى الصومعة الفردية

مع انتشار وسائل التواصل الاجتماعي، ظهر مصطلح "غرف الصدى"، حيث يقتصر تفاعلك على أشخاص يتفقون معك في آرائك السياسية والاجتماعية، لتصبح دائرة أصدقائك ومتابعيك من "لون" واحد، ممن يحملون توجهاتك ورؤيتك نفسها للعالم.

الذكاء الاصطناعي يصنع واقعاً مختلفاً وفقاعة خاصة لكل فرد، فخوارزميات التوصية المستخدمة في فيسبوك وإكس وجوجل وغيرها، تعرض لك المحتوى بناءً على ما تعرفه عنك وما تحبه ولا تحبه وما يغضبك وما يحزنك. وعندما تقترن هذه الخوارزميات بوكيل ذكاء اصطناعي يتولى توليد نصوص وصور وفيديوهات تنال إعجابك، ستعيش حياتك على الإنترنت في صومعة لا يسكنها غيرك، ستستهلك محتوى يعزّز قناعاتك ويبعدك عن الآراء المخالفة.

لنتخيل شخصين يتابعان الأخبار حول قضية محلية ساخنة، مثل أزمة اقتصادية عميقة:

  • المستخدم الأول يتعرض لمحتوى يبرز الحلول الحكومية والتقارير الرسمية حول الاستقرار والتحسن المتوقع.
  • المستخدم الثاني يُغرَق بمقالات تتحدث عن الفساد وسوء الإدارة، ما يعزّز لديه نظرة متشائمة تجاه المستقبل.

على الرغم من أن كليهما يعيش في البلد نفسه، فإن قراراتهما ستتأثر بناءً على الواقع الذي فرضه عليهما الذكاء الاصطناعي. الأول قد يواصل العمل والتخطيط للمستقبل، بينما الثاني قد يلجأ إلى سحب استثماراته أو حتى الهجرة.

اقرأ أيضاً: 5 نصائح لتقييم دقة المعلومات الصحية التي توفّرها مواقع الويب وأدوات الذكاء الاصطناعي

أمثلة أخرى

مثال آخر لهذه المشكلة يظهر في الطريقة التي يتفاعل فيها الذكاء الاصطناعي مع خوارزميات التوصية والتخصيص. تخيل أنك وصديقك تشاهدان فيلماً واحداً على منصة بث، لكن كلاً منكما يحصل على تجربة مختلفة؛ النهاية التي تشاهدها أنت قد تختلف عن النهاية التي يراها صديقك بناءً على بياناتكما الشخصية وتفضيلات كل منكما. في هذا السياق، يصبح المحتوى مخصصاً للغاية لدرجة أنه يلغي الطابع المشترك للتجارب التي تربطنا.

ومثال آخر لهذا الخطر يكمن في الأخبار الموجّهة. تخيل أنك تتلقى تحديثات إخبارية يومية بناءً على ما تفضّله من موضوعات سياسية أو اجتماعية، مُصاغة بأسلوب مرتكز على توجهاتك. في الوقت نفسه، يتلقى شخص آخر محتوى مخصصاً بناءً على ميوله، ما يؤدي إلى انقسام الرؤى وفقدان نقاط الالتقاء والتفاهم بين أفراد المجتمع. بدلاً من أن تكون هناك تجربة إخبارية موحدة، تصبح التجارب مجزأة؛ حيث يعيش كل فرد في "فقاعة" معلوماته الخاصة.

المحتوى المخصص تأثيره حقيقي حتى لو كان مزيفاً

توضح البروفيسورة ستيفاني كولينز، مديرة برنامج السياسة والفلسفة والاقتصاد في جامعة موناش، أن بعض الأشياء، مثل الكواكب والصخور، موجودة بغض النظر عن إدراك البشر لها، في حين أن مفاهيم مثل الأموال، والانتخابات، والسلطة السياسية ليست سوى نتائج لاتفاقات جماعية بين البشر.

وتُشير كولينز إلى أن انتشار نظريات المؤامرة، حتى لو لم تكن تستند إلى حقائق، يمكن أن يُولّد تأثيرات اجتماعية وسياسية حقيقية. فمجرد إيمان عدد كافٍ من الناس بمؤامرة ما، يجعلها واقعاً اجتماعياً يستدعي التعامل معه بجدية، وليس مجرد تجاهله أو السخرية منه. إليك هذين المثالين:

  • إذا كتبت الخوارزميات أو نشرت خباراً مزيفة حول انهيار عملة معينة، حتى لو لم يكن ذلك صحيحاً من الناحية الاقتصادية، فإن الذعر الذي سينتج عن انتشار الخبر قد يؤدي فعلياً إلى تدهور قيمة العملة في الأسواق.
  • إذا وُلِّد مقطع صوتي بصوت مرشح لرئاسة بلد، وهذا ممكن بكل سهولة الآن، يحتوي على تصريحات عنصرية أو موجّهة ضد مجموعة دينية ما، حتى لو لم يكن لها أساس من الصحة، فإن مجرد اقتناع شريحة كبيرة من الناس بصحتها قد يؤدي إلى أزمة ثقة تؤثّر في استقرار النظام السياسي بأكمله.

وحتى لو كُشِف التزييف لاحقاً، فإن الضرر قد وقع، لأن الناس تتأثر بالمحتوى العاطفي أكثر من التصحيحات اللاحقة.  وعلى المدى الطويل، قد يؤدي هذا إلى انقسامات اجتماعية حادة، حيث يصبح الحوار بين المجموعات المختلفة شبه مستحيل، لأن كل فرد يعيش في واقع مختلف تماماً.

اقرأ أيضاً: هل ستحظى نماذج التزييف العميق بسمعة جيدة يوماً ما؟

كيف نحمي أنفسنا من التزييف بالذكاء الاصطناعي؟

مع تزايد صعوبة التمييز بين الحقيقي والمزيف، علينا أن نكون أكثر وعياً بخطورة هذه التقنيات. ويمكن اتخاذ بعض الخطوات لتقليل التأثير السلبي لها:

  1. تنويع مصادر المعلومات والاطلاع على وجهات نظر مختلفة.
  2. التأكد من المصادر الإخبارية وعدم تصديق كل ما نراه أو نسمعه على الإنترنت.
  3. تعزيز الوعي الرقمي والتفكير النقدي بحيث يدرك الأفراد كيف يمكن التلاعب بالمحتوى عبر الذكاء الاصطناعي.
  4. إيجاد منصات إعلامية شفافة تعتمد على تدقيق المعلومات بدلاً من مجرد زيادة التفاعل عبر العناوين الجذابة.
  5. دعم القوانين التي تفرض الشفافية على المنصات الرقمية وتحد من تأثير الذكاء الاصطناعي على تشكيل الرأي العام.

إذا كان الذكاء الاصطناعي قد أصبح صانع المحتوى الأول على الإنترنت، فإن مسؤوليتنا كبشر هي ضمان ألا تتحول الإنترنت إلى مرآة زائفة تعكس واقعاً غير حقيقي.

لذا، في المرة القادمة التي تتأثر فيها بقصة ما على الإنترنت، توقف لحظة واسأل نفسك: هل هذا حقيقي، أم مجرد خدعة ذكية صممت خصيصاً لتؤثر عليك؟

المحتوى محمي