مصطلحات عن الذكاء الاصطناعي ومعلومات ما زال الكثيرون يخطئون فيها في بيئة العمل

5 دقيقة
مصطلحات عن الذكاء الاصطناعي ومعلومات ما زال الكثيرون يخطئون فيها في بيئة العمل

بعد سنوات من الضجة والتأثير اللذين أحدثهما الذكاء الاصطناعي، يعتقد الكثيرون أنهم يلمون بكل ما يحيط بهذا المجال أو أنهم على الأقل لا يخطئون تفسير مصطلحاته أو قدراته.

لكن الحقيقة أبعد ما تكون عن ذلك، فحتى من يستخدمون أدوات الذكاء الاصطناعي، يخطئون فهم الكثير من مصطلحاته، كما ينتشر الكثير من المعلومات الخاطئة حول قدراته. قد يمر ذلك علينا في اجتماعات عمل تضم أشخاصاً يتحدثون عن الذكاء الاصطناعي أو من المتحمسين لتطبيقاته.

في هذه المقالة، سنتناول مصطلحات وقدرات لا يزال الكثيرون يخطئون استخدامها أو فهمها، مرتبطة بالذكاء الاصطناعي.

مصطلحات يساء فهمها عن الذكاء الاصطناعي

هلوسات الذكاء الاصطناعي

توحي كلمة "هلوسة" بأن الذكاء الاصطناعي يرى شيئاً غريباً أو يسمعه، ولكنها تشير إلى شيء آخر. تعني الهلوسة في الذكاء الاصطناعي أن النظام قد أنتج معلومة خاطئة تماماً لكنها تبدو معقولة. فقد يكتب النموذج اقتباساً مزيفاً أو يستشهد بنص قانوني غير موجود، أو ينشئ مصدراً غير موجود. هذا المصطلح من أكثر المصطلحات التي يساء فهمها في بيئة العمل.

يعدو سبب الهلوسة إلى أن نماذج الذكاء الاصطناعي لا تعرف الحقائق، فهي مصممة للتنبؤ بالكلمات التي تأتي عادةً بعد كلمة معينة في الجملة بناءً على أنماط البيانات التي درب عليها، إذا تضمنت تلك البيانات مزيجاً من الحقائق والأخطاء وأمثلة مطابقة النبرة، فسيعيد الذكاء الاصطناعي إنشاء هذا المزيج. لا تتحقق النماذج من صحة المعلومات، بل تجري حسابات رياضية لمعرفة ما يبدو أنه جملة أو كلمة تالية منطقية فتحدث الهلوسة.

غياب الفهم الواضح لهلوسة الذكاء الاصطناعي في بيئة العمل قد يسبب أضراراً تفوق التوقعات. فقد ينسخ المدير ما يبدو أنه ملخص ذكي، ليكتشف لاحقاً أنه يتضمن إحصاءات مختلقة، كما قد يبني أحد الفرق مقترحاً على اقتباسات غير موجودة، وقد تُشير وثيقة تدريبية إلى قوانين وهمية. هذه المشكلات تؤدي إلى فقدان الثقة واتخاذ قرارات خاطئة وتثير مخاوف قانونية، بل وحتى الإضرار بسمعة الشركة. ولتجنب هذه الأخطاء، يجب التحقق دائماً مما تنتجه أدوات الذكاء الاصطناعي. فمخرجاتها الجيدة لا تعني أنها صحيحة أبداً.

اقرأ أيضاً: 8 نصائح لتحسين دقة إجابات تشات جي بي تي وتقليل ظاهرة الهلوسة

تحيز الذكاء الاصطناعي

في الذكاء الاصطناعي، يحدث التحيز عندما يلتقط النظام أنماطاً في البيانات تعكس معاملة غير عادلة لمجموعات معينة. ما قد لا تعرفه هو أن الذكاء الاصطناعي لا يدرك أن هذه الأنماط غير عادلة. ببساطة ينسخ ما يراه في البيانات التي درب عليها. إذا تضمنت بيانات التدريب تكراراً لتفضيل مجموعة على أخرى، فإن الذكاء الاصطناعي يتعلم تفضيل تلك المجموعة أيضاً.

هذا مهم بشكل خاص في عمليات التوظيف. مثلاً، إذا تدربت أداة ذكاء اصطناعي على بيانات من مرشحين سابقين لوظائف، كان معظم الناجحين منهم رجالاً، فقد تتعلم ترتيب المرشحين الذكور في مراتب أعلى. لا تتقصد نماذج الذكاء الاصطناعي ذلك طبعاً، لكنها تكرر ما عُرض عليها. هذا قد يستبعد المرشحين المؤهلين ويعزز التفكير النمطي.

تتفاقم المشكلة عندما تثق الفرق بالذكاء الاصطناعي دون السؤال عن مصدر بيانات التدريب أو كيفية تدريب النظام. ولتجنب ذلك، تحتاج الشركات إلى طرح أسئلة جدية حول كيفية بناء أدواتها لتتجنب العواقب التي قد يسببها تحيزها.

"الصندوق الأسود" للذكاء الاصطناعي وقابلية تفسيره

يعني مصطلح الصندوق الأسود في الذكاء الاصطناعي عدم القدرة على رؤية كيفية اتخاذ الأداة قرارها أو فهمه. فعلى الرغم من معرفة المدخلات والمخرجات، فإن ما يحدث بين مرحلتي الإدخال والإخراج غير معروف. هذا يسبب ارتباكاً وشكاً خاصة عندما تؤثر مخرجات الذكاء الاصطناعي في وظائف الأفراد أو تقييمات أدائهم أو مساراتهم المهنية.

تتعلق قابلية التفسير بتسهيل فهم خطوات عملية اتخاذ القرار. ولا يعني ذلك الاطلاع على التعليمات البرمجية وفهمها، ولكن يجب الحصول على إجابة واضحة عن السؤال: "لماذا حصلت على هذه النتيجة؟

بعض الأدوات أصبحت توفر هذا النوع من الوضوح، حيث تُعرض آلية التوصل إلى النتيجة.

عندما يظل المنطق الكامن وراء قرارات الذكاء الاصطناعي مخفياً، يفقد الناس ثقتهم بمخرجاته، وقد يشككون في نزاهة الترقيات أو التصنيفات أو التعليقات. وعندما يعجز القادة عن شرح كيفية وصول الأداة إلى قرارها، تكون النتيجة هي الإحباط وانعدام التفاعل. ولتجنب ذلك، تحتاج المؤسسات إلى اختيار أدوات توفر قدراً من الشفافية وتتيح مساحة للنقاش حول كيفية اتخاذ القرارات.

اقرأ أيضاً: خوارزميات الصندوق الأسود في الذكاء الاصطناعي تتحيز ضد عرق أو فئة عمرية معينة

تحيز الأتمتة

إضافة كلمة "أتمتة" قبل "تحيز" تغير معناها. يحدث تحيز الأتمتة عندما يثق الناس بالذكاء الاصطناعي أكثر من ثقتهم بحكمهم الشخصي. فقد يقبل أحدهم اقتراحاً من أداة ذكاء اصطناعي دون التشكيك فيه أو يستخدم فريق ملخصاً من نموذج دون التحقق من المصدر. قد يبدو هذا توفيراً للوقت، ولكنه قد يكلف أكثر لاحقاً في حال وجود أخطاء فيه.

ينشأ هذا التحيز عندما يفترض الناس أن الأداة التي بناها خبراء لا بد أنها صحيحة، لكن جودة أدوات الذكاء الاصطناعي ترتبط بجودة بيانات التدريب. إذا لم تكن البيانات جيدة، فقد تتسرب معلومات خاطئة إلى مخرجات النموذج. وتتفاقم المشكلة عند اتخاذ قرارات بالاعتماد على هذه المخرجات، وعندما يفترض الجميع دقة الأداة.

للحد من تحيز الأتمتة يجب مراجعة النتائج. إذا وردت نتيجة أو ملخص أو توصية، اسأل عن كيفية إنشائها وانظر إلى السياق وفكر في خبرتك الشخصية قبل قبول ما تقوله الأداة.

قدرات يعتقد كثيرون أن الذكاء الاصطناعي يتمتع بها

كما تنتشر إساءة فهم الكثير من المصطلحات المتعلقة بالذكاء الاصطناعي، هناك مبالغة في قدراته أو تنتشر معلومات مغلوطة عنه. من أبرز هذه القدرات والمعلومات التي تنسب إلى الذكاء الاصطناعي:

الذكاء الاصطناعي يملك ذكاءً ووعياً بشرياً

يعتقد الكثيرون أن الذكاء الاصطناعي يمتلك ذكاءً شبيهاً بالذكاء البشري أو حتى يتجاوزه، وأنه قادر على الوعي والشعور واتخاذ القرارات بحرية. ولكن في الواقع الذكاء الاصطناعي هو مجموعة من الخوارزميات والبرمجيات التي تبرمج لتقليد بعض السلوكيات الذكية، مثل التعلم من البيانات وتحليل الأنماط، لكنه يفتقر تماماً إلى الوعي الذاتي والشعور. لا يمكنه التفكير بحرية أو تجاوز البرمجة الأصلية، إذ إن الذكاء الاصطناعي يعتمد على بيانات مدخلة وتعليمات محددة ينفذها بدقة، أما البشر فيمتلكون قدرة على الإبداع والتكيف مع المواقف واتخاذ قرارات أخلاقية معقدة.

اقرأ أيضاً: لماذا يبقى فهم العقل البشري أصعب من تدريب أكبر نماذج الذكاء الاصطناعي؟

الذكاء الاصطناعي تقنية حديثة تماماً بدأت مع الحوسبة

يظن كثيرون أن الذكاء الاصطناعي تقنية حديثة بدأت بالعقد الأخير فقط، لكن الواقع أن تاريخ البحث والتطوير في الذكاء الاصطناعي يعود إلى أكثر من سبعين عاماً، منذ خمسينيات القرن الماضي.

وشهد المجال فترات من الاهتمام الشديد وأخرى من الهدوء تعرف بشتاء الذكاء الاصطناعي، قبل أن يصل إلى تقدمه الحالي بفضل تقنيات التعلم العميق.

الذكاء الاصطناعي يملك مشاعر ويشعر بالغضب أو التعاطف

يعتقد البعض أن الذكاء الاصطناعي يمكن أن يشعر كالبشر، وتنتابه مشاعر مثل الغضب أو التعاطف، فالحقيقة أن الذكاء الاصطناعي لا يملك مشاعر حقيقية، لكنه يستطيع محاكاة تعبيرات أو تصرفات تبدو كأنها مشاعر وذلك لأغراض تفاعلية. هذه المحاكاة تجري عبر تفعيل برامج مسبقة الاستجابة لمواقف معينة، لكنها ليست شعوراً حقيقياً أو وعياً. لذلك، لا يمكن للذكاء الاصطناعي أن يكون لديه دوافع أو عواطف.

اقرأ أيضاً: الإبداع البشري والذكاء الاصطناعي: تكامل أمْ صراع في صناعة المحتوى؟

الذكاء الاصطناعي يفهم العالم كما يفهمه الإنسان

يعتقد البعض أن الذكاء الاصطناعي يمتلك فهماً شمولياً للعالم ومحيطه. لكن الذكاء الاصطناعي يعالج البيانات بناءً على أنماط محددة تعلمها، دون أن يأتي بمعرفة حقيقية أو وعي للعلاقات المعمقة بين الأشياء. خلافاً للبشر الذين يربطون بين السياق والخبرة فقط، الذكاء الاصطناعي محدود بما درب عليه، ولا يستطيع التفكير النقدي أو الإبداع الحقيقي بالطريقة نفسها.

ما هي أهمية الفهم الصحيح لمصطلحات الذكاء الاصطناعي وقدراته؟

الفهم الصحيح لمصطلحات الذكاء الاصطناعي وقدراته مهم جداً لأنه يؤثر بشكل مباشر في القرارات التي تتخذ في العمل والحياة اليومية. فعندما لا نفهم ما وراء مصطلح مثل "الهلوسة" (Hallucination) في الذكاء الاصطناعي، قد نثق بمعلومات غير صحيحة تولد بشكل غير دقيق أو مبالغ فيه من قبل النماذج الذكية، ما يؤدي إلى ارتكاب أخطاء مكلفة. المعرفة الدقيقة بالمصطلحات تساعد الأفراد على اختيار الأدوات المناسبة وتوجيه فرق العمل بشكل أفضل، كما تعزز جودة التواصل والإنتاجية داخل المؤسسات. لذا فالتعرف إلى هذه المفاهيم يمنح المستخدمين ميزة في المناقشات والاجتماعات ويقوي قدرتهم على طرح أسئلة أكثر ذكاءً، ما يسهم في حماية الأعمال من المخاطر التي قد تنجم عن سوء الفهم أو استخدام غير واعٍ لتقنيات الذكاء الاصطناعي

المحتوى محمي