ما هي أسباب استمرار أخطاء الذكاء الاصطناعي على الرغم من التطورات الحاصلة؟

3 دقيقة
مصدر الصورة: ستيفاني آرنيت/ إم آي تي تي آر | إنفاتو

كنت أجرّب استخدام مساعِدات الذكاء الاصطناعي في عملي اليومي. تكمن العقبة الكبرى أمام الاستفادة من هذه المساِعدات في انخفاض دقتها وأخطائها الواضحة في كثير من الأحيان. على سبيل المثال، استخدمتُ منصة للنسخ الصوتي باستخدام الذكاء الاصطناعي في أثناء إجراء مقابلة مع شخص حول إعاقة جسدية، لكنّ ملخص الذكاء الاصطناعي أصرّ على أن المحادثة كانت عن اضطراب طيف التوحد. يُعد هذا مثالاً على مشكلة "الهلوسة" التي يواجهها الذكاء الاصطناعي؛ إذ تكوّن النماذج اللغوية الكبيرة معلومات غير صحيحة.

اقرأ أيضاً: 4 أنواع محتوى يمكن التلاعب بها بالذكاء الاصطناعي وأساليب كشفه ومنعه

أخطاء واسعة النطاق لنماذج الذكاء الاصطناعي

في الآونة الأخيرة، شهدنا بعض أخطاء الذكاء الاصطناعي على نطاق أوسع بكثير. في أحدث الأخطاء الطريفة، لم يتمكن نموذج جيميناي التابع لشركة جوجل من توليد صور لأشخاص من ذوي البشرة البيضاء، وظهر هذا الخلل تحديداً عند محاولة توليد صور للرجال. في المقابل، تمكن المستخدمون من توليد صور لباباوات من ذوي البشرة السمراء ولجنود إناث. كانت شركة جوجل تحاول تقليل التحيز في مخرجات نموذجها، لكنّها واجهت خللاً أدى إلى نتائج عكسية، وسرعان ما وجدت شركة التكنولوجيا نفسها في خضم الصراع الثقافي الأميركي؛ إذ اتهمها النقاد المحافظون وإيلون ماسك بأنها متحيزة ولا تمثل التاريخ بدقة، وبالتالي، اعتذرت شركة جوجل وأوقفت الميزة مؤقتاً.

في حادثة أخرى مشهورة، اقترح بوت الدردشة بينغ التابع لشركة مايكروسوفت على مراسل في صحيفة نيويورك تايمز أن ينفصل عن زوجته. لا تزال بوتات الدردشة المصممة لخدمة العملاء تتسبب بمشكلات مختلفة لشركاتها. على سبيل المثال، اضطرت شركة الخطوط الجوية الكندية، إير كندا (Air Canada) مؤخراً إلى إعادة مبلغ مالي لأحد العملاء امتثالاً لسياسة ابتدعها بوت الدردشة التابع لها والمخصص لخدمة العملاء، والقائمة تطول.

صعوبة التحكم في تطبيقات الذكاء الاصطناعي

تسارع شركات التكنولوجيا إلى إطلاق منتجات تعتمد على الذكاء الاصطناعي، على الرغم من الدلائل الكثيرة التي تشير إلى صعوبة التحكم في تطبيقات الذكاء الاصطناعي وسلوكها غير المتوقع في كثير من الأحيان. تحدث هذه السلوكيات الغريبة بسبب عدم فهمنا لكيفية عمل التعلم العميق وأسبابه، وهو التقنية الأساسية التي تقف وراء ازدهار الذكاء الاصطناعي في الوقت الحاضر. إنه أحد أكبر الألغاز المحيّرة في مجال الذكاء الاصطناعي. نشر زميلي ويل دوغلاس هيفن مقالاً يناقش فيه هذا الموضوع بالتفصيل.

يتمثل اللغز الأكبر الذي يحيط بالنماذج اللغوية الكبيرة، مثل جيميناي وجي بي تي-4 التابع لشركة أوبن أيه آي، في كيفية تعلمها تنفيذ أشياء لم تُدرّب على تنفيذها. يمكنك تدريب نموذج لغوي على المسائل الرياضية باللغة الإنجليزية ثم تعريضه لمجموعة نصوص أدبية فرنسية، ومن خلال هذه العملية يمكنه تعلم حل المسائل الرياضية باللغة الفرنسية. يقول ويل إن هذه القدرات تتعارض مع الإحصاءات التقليدية، التي توفر أفضل مجموعة من التفسيرات حول كيفية عمل النماذج التنبؤية.

اقرأ أيضاً: كيف تبني تطبيقات ذكية دون أن تكون خبيراً في البرمجة أو الذكاء الاصطناعي؟

الذكاء الاصطناعي: مصطلح مضلل إلى حد كبير

من السهل أن نخطئ في تفسير تصوراتنا الناجمة عن نقص معرفتنا على أنها سِحر، ومن المؤسف أن مصطلح الذكاء الاصطناعي أيضاً، وهو الاسم المستخدم لهذه التكنولوجيا، يُعد مضللاً إلى حد كبير. تبدو النماذج اللغوية ذكية لأنها تولّد نصوصاً تشبه اللغة البشرية من خلال التنبؤ بالكلمة التالية في الجملة. لا تتمتع هذه التكنولوجيا بالذكاء الحقيقي، ووصفها بأنها كذلك يحوّل توقعاتنا بطريقة غير مباشرة بحيث نتعامل معها على أنها أكثر قدرة مما هي عليه في الواقع.

لا تقع في فخ الحملات التسويقية التي يستخدمها قطاع التكنولوجيا من خلال الاعتقاد أن هذه النماذج واسعة المعرفة أو أنها واقعية وصحيحة أو أنها جاهزة لتنفيذ المهام التي نتوقعها منها. نظراً لصعوبة التنبؤ بسلوكها وصعوبة السيطرة على التحيزات الناتجة عنها ووجود الثغرات الأمنية واستعدادها إلى اختلاق معلومات غير صحيحة، فإن فائدة هذه النماذج محدودة للغاية. يمكن أن تساعد هذه النماذج البشر في عمليات العصف الذهني، بالإضافة إلى الترفيه. لكن، نظراً لمعرفتنا بأن هذه النماذج عرضة للأخطاء والمشكلات، فربما ليس من الحكمة الوثوق بها فيما يتعلق بتفاصيل بطاقتك الائتمانية، أو معلوماتك الحساسة، أو استخدامها في أي أمور بالغة الأهمية.

يشير العلماء في مقال ويل إلى أن مجال أبحاث الذكاء الاصطناعي لا يزال في مراحله الأولى. يشير عالم الكمبيوتر في جامعة هارفارد، المُنتدب حالياً للعمل مع فريق المواءمة الفائقة في شركة أوبن أيه آي، بواز باراك، إلى أن العديد من الأشخاص في هذا المجال يقارنون الوضع الحالي بالفيزياء في بداية القرن العشرين، عندما قدّم آينشتاين نظرية النسبية.

اقرأ أيضاً: ما المهن التي سيستولي عليها الذكاء الاصطناعي عام 2024؟

يركز مجال أبحاث الذكاء الاصطناعي حالياً على كيفية عمل هذه النماذج وإنتاجها للمعلومات التي تقدمها، لكن يجب إجراء مزيد من الأبحاث لفهم سبب ذلك. إلى أن نحصل على فهم أفضل لطريقة عمل الذكاء الاصطناعي وأساسياته، فمن المتوقع حدوث مزيد من الأخطاء الغريبة والتطلعات المبالغ بها التي ستفشل هذه التكنولوجيا حتماً في تحقيقها.

المحتوى محمي