مُشَرِّح الذكاء الاصطناعي: وظيفة مستقبلية لفهم ما وراء القرار الخوارزمي

3 دقيقة
مُشَرِّح الذكاء الاصطناعي: وظيفة مستقبلية لفهم ما وراء القرار الخوارزمي
توليد الصورة بمساعدة "بكسلر" بإشراف محرر مجرة

في المشهد المتسارع الذي نعيشه اليوم، أصبحت نماذج الذكاء الاصطناعي حاضرة في العديد من حالات اتخاذ القرار؛ من توصية بفيلم على منصة بث، إلى تصنيف ائتماني، مروراً بتحديد أحقية مريض للعلاج أو تقديم خطة علاجية معينة أو ترشيح شخص لوظيفة أو تقييم أداء موظف، وصولاً إلى تقدير احتمالية تكرار الجريمة. لقد نمت هذه النماذج وتطورت وتعقدت، لكن فهمنا لها لم يتطور بالوتيرة نفسها. نثق بها عندما تعطينا نتائج دقيقة، ونتراجع عنها حين تخطئ، لكننا نادراً ما نتوقف لنسأل: كيف فكرت؟ ولماذا قررت؟

هذا السؤال، البسيط في ظاهره، هو بوابة لحاجة مُلحّة آخذة في التبلور يوماً بعد يوم: مهنة جديدة لم تتشكل بالكامل بعد، لكنها في طريقها لأن تكون إحدى أبرز مهن العقد القادم: مُشَرِّح الذكاء الاصطناعي.

اقرأ أيضاً: الذكاء الاصطناعي التوليدي وسوق العمل: الأمر أكبر من فقدان وظائف

مَن هو مُشَرِّح الذكاء الاصطناعي؟

هذه المهنة لا تتعلق ببناء النماذج أو تحسين أدائها فنياً فقط، بل بتفكيكها تقنياً وقانونياً وعقلانياً وأخلاقياً، والنظر إلى أعماقها من زاوية تختلف عن نظرة المهندس أو المصمم.. إنها محاولة لكشف ما وراء الغطاء الأسود الذي تغلّف به النماذج نفسها؛ ذلك الغطاء الذي يُخفي وراءه طبقات من القرارات والتحيزات والافتراضات، وأحياناً الصمت.

نعم، الصمت. فالذكاء الاصطناعي لا يُخطئ فقط عندما يقدّم نتيجة غير دقيقة، بل أحياناً عندما يصمت، عندما لا يشرح، عندما يتخذ قراراً دون أن يُتيح لنا مساءلته. هذا ما يُسمّى بـ "الصمت الخوارزمي"، وهو أكثر خطورة من الخطأ الظاهر. فالصمت يُخفي ويُضلل ويزرع ثقة زائفة في النماذج الذكية والقرارات الناتجة عنها.

في البيئات التي تُستخدم فيها الخوارزميات لاتخاذ قرارات حساسة، يصبح هذا الصمت غير مقبول. لا يكفي أن يكون النموذج دقيقاً، بل يجب أن يكون مفهوماً، ولا يكفي أن يعطي نتائج صحيحة في المتوسط، بل يجب أن يكون قادراً على شرح حالة بعينها، وفهم أبعادها، والتوقف عند انحرافاتها. من هنا تنبع الحاجة إلى مُشَرِّح الذكاء الاصطناعي، لا كوظيفة فنية فقط، بل كواجهة بشرية تعكس الضمير الرقمي للنماذج.

هذا المتخصص هو الشخص الذي يُطلب حضوره عندما يحدث شيء غير مفسَّر. حين ترفض خوارزمية منح قرض دون سبب واضح أو حين يتضرر شخص من قرار صادر عن نظام آلي لا نعرف من صممه، ولا على ماذا استند، والتحيزات البشرية التي انعكست –عن قصد أو عن غير قصد– في تصميم النموذج أو خوارزمياته. مشرّح الذكاء الاصطناعي يُجري ما يمكن تسميته بـ "تشريح القرار"، محاولاً فهم كيف توصل النموذج إلى ما قرره، وما الذي دفعه لذلك، وما الذي أغفله. إنه يحلل المسارات ويستكشف المناطق الرمادية التي لا تراها المقاييس التقليدية.

وليس الأمر مجرد تحليل للكود، بل هو تحليل للمنطق ذاته. بحثاً عن الجزء غير المرئي من القرار، ذلك الجزء الذي ربما كان حاسماً، لكنه خفي. في بعض الأحيان، لا يكون الانحياز في الخوارزمية ذاتها، بل في البيانات التي تمت تغذيتها بها. وأحياناً أخرى، يكون الانحراف قد حدث بسبب تغير في السياق لم تأخذه الخوارزمية بعين الاعتبار.

أداة استباقية

لكن هذه المهنة لا تقتصر على الاستجابة للأخطاء، بل يمكن أن تكون أداة استباقية. فمن خلالها يمكن مساءلة الخوارزميات قبل تفعيلها، واختبارها في بيئات محاكاة، وتقديم تقارير تحليلية تُقيِّم مدى اتساقها مع المبادئ الأخلاقية وحساسيتها تجاه خصائص بشرية مثل الجنس أو العرق أو الخلفية الاجتماعية. ربما تبدو هذه المفاهيم اليوم موضوعاً للنقاش الأكاديمي، لكنها غداً ستكون جزءاً من الالتزامات القانونية، مع تصاعد التشريعات الدولية التي تمنح الأفراد الحق في "تفسير القرار الآلي".

إن ما يجعل هذه المهنة معقدة وجميلة في آنٍ معاً، هو أنها تتطلب مزيجاً نادراً من القدرات: خلفية تقنية راسخة، وفهم عميق لحوكمة الذكاء الاصطناعي ومتطلباته القانونية، وبصيرة تحليلية قادرة على اكتشاف الأنماط غير المباشرة. يتطلب الأمر شخصاً يُجيد الإصغاء للنموذج، قراءة صمته، وتأويل ما لا يُقال. فالمشكلة ليست دائماً فيما تصرّح به الخوارزمية، بل فيما تختار أن تُخفيه.

اقرأ أيضاً: 20 وظيفة جديدة ستظهر بسبب الذكاء الاصطناعي وستطلبها غالبية الشركات في العالم

وفي السياق العربي، ستتزايد الحاجة إلى هذه المهنة بالتوازي مع التوسع في استخدام النماذج الذكية في مجالات الخدمات العامة والتعليم والرعاية الصحية وسوق العمل. ومع هذا التحول المستقبلي على المدى القريب والمتوسط، سيصبح من الضروري الشروع في بناء مسارات تدريبية وبحثية ومهنية تُسهم في تشكيل هذه الوظيفة وتفعيلها ضمن مؤسساتنا الوطنية. فبدلاً من الاكتفاء بنقل التقنية، نحن مطالبون اليوم بتوطين فهمها، وتشريح منطقها، ومساءلة قراراتها، بما يتوافق مع السياقات الثقافية والاجتماعية الخاصة بمجتمعاتنا.

إننا نعيش لحظة فارقة؛ لحظة لم يعد فيها الذكاء الاصطناعي أداة خلف الكواليس، بل فاعلاً مباشراً في تشكيل القرار. ومع هذا التحول، يصبح من حقنا –بل من واجبنا– أن نعرف ما يدور خلف تلك القرارات. أن نسأل: كيف قررت هذه الآلة ما قررته؟ ولماذا؟ وهل كان من الممكن أن تقرر غيره؟

الذكاء الاصطناعي ليس شريراً بطبيعته، ولا خيراً بالضرورة، بل هو انعكاسٌ لما نُغذّيه به من بيانات، ومنهجيات وقيم. ومهنة مشرّح الذكاء الاصطناعي هي إحدى أهم وسائلنا لضمان أن يكون هذا الانعكاس نزيهاً وعادلاً ومفهوماً. إنها المهنة التي تُعيد الإنسان إلى قلب القرار، وتكسر الغطاء الأسود، وتؤسّس لتفاعل مستمر بين العقل البشري والآلة، هدفه الأسمى: نزاهة القرار، وعدالة التوصية، ومساءلة الخوارزمية.

المحتوى محمي