أكبر إخفاقات الذكاء الاصطناعي في 2024

5 دقيقة
أكبر إخفاقات الذكاء الاصطناعي في 2024

من المؤكد أن الأشهر الاثني عشر السابقة كانت حافلة بالنسبة إلى من يعملون في مجال الذكاء الاصطناعي. فقد شهدنا إطلاق عدد كبير جداً من المنتجات الناجحة، بل حتى جوائز نوبل. لكن الأمور لم تكن سلسة على الدوام.

تتسم تكنولوجيا الذكاء الاصطناعي بأنها تتغير على نحو لا يمكن التنبؤ به، إضافة إلى أن إتاحة النماذج التوليدية على نطاق أوسع من ذي قبل دفع الناس إلى اختبار حدود قدرات هذه النماذج بطرق جديدة وغريبة، ومضرة في بعض الأحيان. وهذه كانت بعضاً من أسوأ إخفاقات الذكاء الاصطناعي في 2024.

انتشرت مخلفات الذكاء الاصطناعي في كل ركن من أركان الإنترنت تقريباً

يتيح الذكاء الاصطناعي التوليدي إنشاء كميات ضخمة من النصوص والصور ومقاطع الفيديو وغيرها من أنواع المواد بسهولة. فبعد تلقيم النموذج الذي تختاره بالأمر النصي المطلوب، ستحصل على النتيجة خلال ثوانٍ معدودة، ولهذا أصبحت هذه النماذج وسيلة سهلة وسريعة لإنتاج المحتوى على نطاق واسع جداً. وفي 2024، بدأنا نسمي هذه الوسائط (الرديئة الجودة عموماً) بالاسم الذي تستحقه: مخلفات الذكاء الاصطناعي (AI Slop).

اقرأ أيضاً: أسوأ 8 إخفاقات تكنولوجية لعام 2024

هذه الطريقة ذات المخاطر المنخفضة في إنشاء محتوى غير مرغوب فيه باستخدام الذكاء الاصطناعي، تعني أن من السهل العثور عليه الآن في كل ركن من أركان الإنترنت تقريباً، بدءاً من النشرات الإخبارية التي تتلقاها في صندوق الوارد لبريدك الإلكتروني والكتب المعروضة للبيع على منصة أمازون، وصولاً إلى الإعلانات والمقالات عبر الويب والصور المريبة على صفحات منصات التواصل الاجتماعي لديك. وكلما كانت هذه الصور أكثر إثارة للعواطف وردود الفعل القوية (مثل صور قدامى المحاربين الجرحى أو الأطفال الباكين أو إشارة تأييد لأحد الأطراف في النزاعات المسلحة) ازداد احتمال مشاركتها عبر هذه المنصات، ما يؤدي إلى تعزيز التفاعل وزيادة إيرادات الإعلانات لمنشئيها الحذقين.

مخلفات الذكاء الاصطناعي ليست مزعجة وحسب، فانتشارها الواسع يمثل مشكلة حقيقية بالنسبة إلى مستقبل النماذج ذاتها التي ساعدت على إنتاجها. فهذه النماذج مُدَرَّبة على بيانات جرى جمعها من الإنترنت، ولهذا فإن زيادة عدد مواقع الويب الرديئة التي تحتوي على مخلفات الذكاء الاصطناعي ستؤدي إلى مشكلة حقيقية وخطيرة جداً تتمثل بالتردي المتواصل لمخرجات هذه النماذج وأدائها.

 الأعمال الفنية الناشئة عن الذكاء الاصطناعي تشوه توقعاتنا للأحداث الحقيقية

كان عام 2024 أيضاً العام الذي بدأت فيه تأثيرات صور الذكاء الاصطناعي السريالية تتسرب إلى حياتنا الواقعية. ففي فبراير/شباط، ضجت وسائل الإعلام في أنحاء العالم كافة بتجربة شوكولاتة ويلي، وهي حدث اندماجي ومشوق للغاية ومستوحى على نحو غير رسمي من رواية روالد دال التي تحمل اسم "تشارلي ومصنع الشوكولاتة" (Charlie and the Chocolate Factory)، فقد كانت المواد التسويقية لهذا الحدث، التي جرى توليدها بالذكاء الاصطناعي، رائعة إلى درجة أوحت للزوار بأنه سيكون أضخم بكثير من التصميم الفعلي الذي بناه مشرفو الحدث، والذي كان مجرد مستودع يتضمن ديكورات متفرقة وحسب.

على نحو مماثل، اصطف المئات من الأشخاص في شوارع دبلن لحضور عرض استعراضي وهمي بمناسبة الهالوين. فقد استخدم موقع ويب في الباكستان الذكاء الاصطناعي لاختلاق قائمة من الفعاليات في المدينة، وانتشرت مشاركات واسعة النطاق لهذه القائمة عبر منصات التواصل الاجتماعي قبل 31 أكتوبر/تشرين الأول. وعلى الرغم من إغلاق موقع (myspirithalloween.com) لاجتذاب الروابط من خلال تحسين محركات البحث منذ ذلك الحين، فإن الحدثين يُظهران التأثير السلبي المحتمل للمواد الموجودة على الإنترنت والمُوَلًّدة بالذكاء الاصطناعي عندما يثق بها العامة على نحو غير مسؤول.

اقرأ أيضاً: 4 طرق تُتيح لك حماية أعمالك الفنية من الذكاء الاصطناعي

غروك يسمح للمستخدمين بإنشاء صور لأي سيناريو عملياً

تعمل الغالبية العظمى من النماذج المهمة لتوليد الصور ضمن الحدود التي تفرضها إجراءات وقائية خاصة، وهي قواعد تحدد ما هو مسموح وما هو محظور لنماذج الذكاء الاصطناعي، وذلك لمنع المستخدمين من إنشاء المحتوى العنيف أو الإباحي أو المخالف للقانون أو غير ذلك من أنواع المحتوى الضار. أحياناً، تهدف هذه الإجراءات الوقائية فقط إلى ضمان منع الاستغلال الفاضح للملكيات الفكرية للآخرين. لكن غروك (Grok)، وهو مساعد رقمي صنعته شركة الذكاء الاصطناعي إكس أيه آي (xAI) التي يملكها إيلون ماسك، يتجاهل كل هذه المبادئ تقريباً على نحو متوافق مع رفض ماسك لما يطلق عليه اسم "الذكاء الاصطناعي المتوافق مع الأفكار اليسارية" (woke AI).

عادة ما ترفض نماذج الصور الأخرى إنشاء صور للمشاهير أو لأي مواد محمية بموجب حقوق التأليف والنشر أو للعنف أو الإرهاب -إلا عند خداعها لدفعها إلى تجاهل هذه القواعد- غير أن غروك سيلبي بسرور طلبك لتوليد صور لدونالد ترامب وهو يطلق صاروخاً من قاذف محمول على الكتف، أو ميكي ماوس وهو يحمل قنبلة. وعلى حين يمتنع هذا النموذج عن توليد صور عارية، فإن رفض مصمميه للانصياع للقواعد السائدة يقوض جهود الشركات الأخرى الهادفة إلى منع إنشاء مواد إشكالية.

انتشار مزيفات عميقة غير لائقة لتايلور سويفت عبر الإنترنت

في يناير/كانون الثاني، بدأت صور عارية عميقة التزييف جرى إنشاؤها دون موافقة للمغنية تايلور سويفت تنتشر على منصات التواصل الاجتماعي، بما فيها إكس (X) وفيسبوك. فقد تمكن أحد المجتمعات على منصة تيليجرام (Telegram) من خداع "ديزاينر" (Designer)، وهو مولد صور يعمل بالذكاء الاصطناعي من شركة مايكروسوفت، لدفعه إلى إنشاء الصور الفاضحة، في إثبات واضح لإمكانية الالتفاف حول الإجراءات الوقائية حتى مع تطبيقها بصرامة.

على حين سارعت مايكروسوفت إلى معالجة ثغرات النظام، فإن الحادثة سلطت الضوء على ضعف سياسات مراقبة المحتوى لدى المنصات، حيث انتشرت منشورات تحتوي الصور على نطاق واسع وبقيت نشطة لعدة أيام. لكن الاستنتاج الأكثر إثارة للقلق هو مدى عجزنا عن مكافحة المزيفات العميقة الإباحية التي جرى إنشاؤها دون موافقة. وعلى حين يمكن الاستعانة بأدوات العلامات المائية وتسميم البيانات، فإنها لن تُحدث فرقاً إلا عند تبنيها على نطاق أوسع بكثير مما هو عليه حالياً.

اقرأ أيضاً: جوجل تتخذ إجراءات للحد من ظهور المزيفات العميقة المسيئة في نتائج البحث

بوتات الدردشة المخصصة للشركات تصاب بأعطال جنونية

مع توسع انتشار الذكاء الاصطناعي، تُسارع الشركات إلى تبنّي الأدوات التوليدية لتوفير الوقت والمال، ورفع فاعلية العمل إلى أعلى درجة ممكنة. لكن المشكلة تكمن في أن بوتات الدردشة تختلق الأشياء ولا يمكن الاعتماد عليها على الدوام للحصول على معلومات دقيقة.

اكتشفت شركة الطيران إير كندا (Air Canada) هذا الأمر على نحو عملي وسلبي، فقد نصح بوت الدردشة الخاص بها أحد العملاء باتباع سياسة استرداد قيمة التذكرة عند عدم إمكانية السفر بسبب فقد أحد الأقرباء، على الرغم من أن هذه السياسة غير موجودة. وفي فبراير/شباط، أصدرت محكمة كندية للمطالبات الصغيرة حكماً لصالح العميل بعد تقديمه شكوى قانونية، على الرغم من تأكيد شركة الطيران أن بوت الدردشة كان "كياناً قانونياً منفصلاً مسؤولاً عن أفعاله الخاصة".

في مثال شهير آخر على بوتات الدردشة التي تتسبب بالأضرار أكثر مما تقدم المنفعة، أقدم بوت دردشة تابع لشركة التوصيل دي بي دي (DPD) على إطلاق الشتائم بأسلوب مرح ووصف نفسه بأنه عديم النفع بعد تلقيمه ببعض الأوامر النصية، على حين انتهى المطاف ببوت آخر إلى توزيع الإرشادات حول كيفية انتهاك القانون، على الرغم من أنه مخصص لتزويد سكان نيويورك بمعلومات دقيقة حول حكومة مدينتهم.

أجهزة الذكاء الاصطناعي لم تُحدث ضجة كبيرة في الأسواق

تعد التجهيزات المُساعِدة من الأشياء التي جربت صناعة الذكاء الاصطناعي إطلاقها في 2024 وأخفقت في ذلك. حيث حاولت شركة هيومين (Humane) أن تحقق الأرباح من خلال إغراء العملاء بالوعود المتعلقة بدبوس الذكاء الاصطناعي "أيه آي بين" (Ai Pin)، وهو كمبيوتر محمول يمكن ارتداؤه على الياقة، غير أنها لم تتمكن من تعزيز المبيعات الضعيفة حتى بعد تخفيض السعر. أما الجهاز المساعد الشخصي "رابيت آر ون" (Rabbit R1) الذي يعتمد على تشات جي بي تي (ChatGPT)، فقد انتهى به المطاف إلى مصير مماثل، على إثر سلسلة من المراجعات النقدية والتقارير السلبية التي قالت إنه بطيء وكثير الأعطال والمشاكل. وقد بدا كلا المنتجين أشبه بمحاولات لحل مشكلة غير موجودة فعلياً.

اقرأ أيضاً: كيف تعاملت أوبن أيه آي مع مشكلة الهلوسة في أداة ويسبر؟

إصابة ملخصات البحث التي يصوغها الذكاء الاصطناعي بالخلل

هل جربت من قبل أن تضيف الغراء إلى البيتزا، أو تأكل حجراً صغيراً؟ هذه مجرد عينة صغيرة من الاقتراحات العجيبة التي قدمتها ميزة "أيه آي أوفرفيوز" (AI Overviews) من جوجل إلى المستخدمين في مايو/أيار بعد أن أضافت الشركة العملاقة في مجال البحث هذه الإجابات التي يولدها الذكاء الاصطناعي إلى نتائج البحث الاعتيادية. وبما أن أنظمة الذكاء الاصطناعي لا تستطيع أن تميز بين مقالة إخبارية صحيحة واقعياً ونكتة منشورة على منصة ريديت (Reddit)، فقد سارع المستخدمون إلى محاولة اكتشاف أغرب الإجابات التي يمكن أن تولدها ميزة أيه آي أوفرفيوز.

غير أن ملخصات الذكاء الاصطناعي قد تؤدي أيضاً إلى عواقب وخيمة. فمنذ فترة قريبة، تسببت ميزة جديدة تجمع إشعارات التطبيقات في هواتف آيفون وتنشئ ملخصات لمحتوياتها بتوليد عنوان إخباري مزيف لموقع بي بي سي نيوز (BBC News). وقال الملخص المزيف إن لويجي مانجيوني، المتهم بقتل الرئيس التنفيذي لإحدى شركات التأمين الصحي برايان تومبسون، أطلق النار على نفسه. ويمكن أن تتسبب أخطاء كهذه، دون قصد، بنشر المعلومات المزيفة وتقويض الثقة بالمؤسسات الإخبارية.

المحتوى محمي