الرجاء تفعيل الجافاسكربت في متصفحك ليعمل الموقع بشكل صحيح.

كيف يؤثّر الذكاء الاصطناعي في الاقتصاد السياسي؟

6 دقيقة
كيف يؤثّر الذكاء الاصطناعي في الاقتصاد السياسي؟
حقوق الصورة: shutterstock.com/Ar_TH

تطوّر الذكاء الاصطناعي من مجال أكاديمي محدود إلى قوة تحوّلية في السياسة والاقتصاد والمجتمع على الصعيد العالمي. فقدرته على إعادة تشكيل صناعات كاملة وأسواق العمل والعلاقات الدولية أثارت تساؤلات جوهرية حول الحوكمة والتنظيم وتحقيق النمو العادل. في هذا المقال، أستكشف الاقتصاد السياسي للذكاء الاصطناعي، متتبّعاً ماضيه وحاضره ومستقبله، مع التركيز على الفروق الإقليمية في المملكة المتحدة والولايات المتحدة والاتحاد الأوروبي ومنطقة الشرق الأوسط وشمال إفريقيا.

اقرأ أيضاً: تجارب عالمية ناجحة في تبنّي الذكاء الاصطناعي

لمحة تاريخية موجزة

على الرغم من أن مفهوم الذكاء الاصطناعي يعود إلى الفلاسفة الكلاسيكيين الذين تأمّلوا طبيعة الدماغ البشري، فإن الذكاء الاصطناعي بمفهومه الحديث غالباً ما يُعزَى إلى مؤتمر دارتموث عام 1956 وما سبقه من أبحاث العالِم البريطاني آلان تورينغ في أربعينيات القرن العشرين. وقد ظهرت في ستينيات وسبعينيات القرن الماضي "النُظم الخبيرة" المبكرة، مشيرة إلى إمكانات الذكاء الاصطناعي في محاكاة قدرة الخبراء البشريين. ومع ذلك، جعلت القدرة الحاسوبية المحدودة والتكاليف المرتفعة في البداية تطبيقات الذكاء الاصطناعي مقتصرة على البحوث العسكرية والمشاريع المؤسسية الكبرى.

على امتداد الثمانينيات والتسعينيات، شهد الاهتمام بالذكاء الاصطناعي صعوداً وهبوطاً فيما عُرف بـ "شتاء الذكاء الاصطناعي"، وهي فترة خفَت فيها تمويلات مشاريع الذكاء الاصطناعي والحماسة تجاهه نتيجة عدم تلبيته التوقعات. ومع مطلع الألفية الثالثة، أعادت الإنجازات في مجال التعلّم الآلي وتوفّر البيانات وتطوّر وحدات المعالجة الرسومية إشعال جذوة أبحاث الذكاء الاصطناعي. وشكّل هذا التحوّل بداية مرحلة جديدة في الاقتصاد السياسي للذكاء الاصطناعي، إذ انتقل من مجرّد إمكانات نظرية إلى اعتماد تجاري واسع النطاق.

الذكاء الاصطناعي والاقتصاد السياسي المعاصر

يتجلى دور الذكاء الاصطناعي في الاقتصاد السياسي المعاصر عبر:

الذكاء الاصطناعي كمحرّك للنمو الاقتصادي

أدّى الاستخدام الواسع للذكاء الاصطناعي في مجالات اللوجستيات والتمويل والرعاية الصحية والتصنيع والخدمات الاستهلاكية إلى تحقيق مكاسب في الكفاءة وفتح مصادر جديدة للإيرادات. وتستثمر عمالقة التكنولوجيا، مثل جوجل وأمازون وألفابت وميتا ومايكروسوفت وعلي بابا وتينسنت Tencent، مبالغ ضخمة في بحوث الذكاء الاصطناعي، مساهمةً في التوسّع السريع لحجم السوق العالمية لهذه التقنية. ومع ذلك، فإن هذه المكاسب لا تتوزّع بالتساوي؛ إذ قد تواجه الشركات الصغيرة والاقتصادات النامية صعوبات في توظيف الذكاء الاصطناعي نظراً لشُحّ الموارد ونقص الكفاءات والعوائق التنظيمية.

بالإضافة إلى ذلك، يسرّع الذكاء الاصطناعي من وتيرة الأتمتة، فيتأثر بذلك الموظفون في الصناعات التي تعتمد تاريخياً على المهام اليدوية أو المتكررة، كخطوط تجميع السيارات أو إدخال البيانات، ما يُثير مخاوف بشأن استقرار سوق العمل وتفاقم اللامساواة في الدخل. وعلى الجانب الآخر، يعزّز الذكاء الاصطناعي الطلب على علماء البيانات وخبراء أخلاقيات الذكاء الاصطناعي ومهندسي الروبوتات، مبرزاً الحاجة إلى برامج واسعة لإعادة تأهيل المهارات وتبنّي أساليب جديدة للتعليم.

التوترات الاجتماعية والسياسية

أثارت تطبيقات الذكاء الاصطناعي جدلاً سياسياً حول الأخلاقيات والخصوصية والتحيّز. فالأنظمة المؤتمتة لاتخاذ القرارات تُدمج على نحو متزايد في السياسات العامة وإنفاذ القانون والخدمات الاجتماعية، وهو ما يُسلّط الضوء على احتمالات التحيز الخوارزمي. وتقع الحكومات تحت ضغط لسنّ تشريعات أو وضع أطر تنظيميّة تضمن أخذ الآثار المجتمعية في الحسبان، جنباً إلى جنب مع المتطلبات الاقتصادية.

علاوةً على ذلك، أدّى تنافس القوى الكبرى في الذكاء الاصطناعي، ولا سيما الولايات المتحدة والصين، إلى إثارة مخاوف من اندلاع "حرب باردة تكنولوجية"، حيث تتسابق الدول للهيمنة على البيانات والبنى التحتية الحاسوبية والمواهب المتخصصة في الذكاء الاصطناعي. ويتجلّى هذا التنافس المتنامي عالمياً في السياسات التجارية ومخاوف الأمن القومي والجوانب الأوسع للجيولوجيا السياسية، ما يؤثّر في التحالفات ويرسم معايير التكنولوجيا على مستوى العالم.

اقرأ أيضاً: وكلاء الذكاء الاصطناعي في بيئة عمل رقمية: أين ينجحون وأين يفشلون؟

التوصيات السياسية

يُعدُّ تعزيز السياسات الاقتصادية الشاملة عنصراً جوهرياً لضمان عدم اقتصار فوائد الذكاء الاصطناعي على الجهات التي تتمتّع مسبقاً بالقدرة على استثمار التقنيات المتقدمة. فمن خلال تشجيع ريادة الأعمال ودعم مبادرات الإدماج الرقمي، تستطيع الحكومات توسيع الفرص أمام المجتمعات التي قد تتعرّض للتهميش. ويشمل ذلك تصميم حوافز مالية، وتوفير برامج إرشادية، وإيلاء أولوية للاستثمار في البنية التحتية بالمناطق المحرومة. وبذلك يمكن لصانعي القرار تقليص خطر تركّز الثروة وتحقيق توزيعٍ أكثر إنصافاً للعوائد الناجمة عن الذكاء الاصطناعي عبر الأسواق الناضجة والناشئة على حدٍّ سواء.

كما تُعدُّ مواءمة الأطر التنظيمية عنصراً أساسياً آخرَ في تحسين بيئة الذكاء الاصطناعي. فعندما تعتمد الدول لوائح متباينة، تواجه الشركات والباحثون عقبات ملتبسة قد تعرقل تقدُّم الذكاء الاصطناعي وتقوّض ثقة المستهلك. ويسمح تنسيق هذه الجهود التنظيمية، سواء عبر اتفاقيات ثنائية أو ضمن مؤسساتٍ متعددة الأطراف، ببلورة معيار مشترك للسلامة وحماية البيانات والمعايير الأخلاقية، ما يمهّد الطريق لدمجٍ آمنٍ ومسؤولٍ للذكاء الاصطناعي في المجتمعات المختلفة.

أمّا الشراكات بين القطاعين العام والخاص، فتشكّل الدعامة الثالثة في حوكمة الذكاء الاصطناعي الفعّالة، إذ تمزج بين خبرات الجامعات والشركات والحكومات. فالبحوث الأساسية التي تبدأ غالباً في الجامعات تستطيع التوصل إلى حلول عملية للتحديات المجتمعية، بدءاً من تحسين الخدمات الصحية ومجابهة التغيّر المناخي وصولاً إلى تطوير البنى التحتية. وعبر تمويل مشترك لمشروعات الأبحاث، ودعم فرق متعددة التخصصات، بالإمكان تسريع عجلة الاكتشافات وتوجيهها إلى حيث تشتدّ الحاجة، بما يخلق حلقةً مفرغة من الابتكار والنمو الاقتصادي والنفع العام.

وتشكّل عملية التعليم المستمر ركيزة لا غنى عنها في هذه المنظومة، متخطية حدود تعليم البرمجة في المراحل الثانوية فقط. إذ لا بُدّ من اعتماد رؤية شاملة تشمل الاستثمار في مستويات التعليم كلّها، بدءاً من تعزيز القدرات الحاسوبية منذ المرحلة الابتدائية لتنمية مهارات التفكير التحليلي، وصولاً إلى دورات تدريبية للمديرين والمهنيين تبقيهم على اطلاع بآخر تطورات الذكاء الاصطناعي المتسارعة. ومن خلال تكوين قوة عاملة تتمتّع بفهم معمّق للأبعاد التقنية والأخلاقية للذكاء الاصطناعي، يمكن للمجتمعات الحدّ من تداعيات إزاحة الوظائف ودعم تبنٍّ مسؤولٍ للتقنيات الجديدة في السوق.

وفي نهاية المطاف، تشكّل الحوكمة الأخلاقية المتمحورة حول الإنسان الأساس الذي يُبنى عليه النظام البيئي للذكاء الاصطناعي برمّته. ومع تحوّل القرارات إلى طابع مؤتمت يوماً بعد يوم، تبرز ضرورة وجود معايير واضحة للمساءلة الخوارزمية وحماية الخصوصية شرطاً لا غنى عنه. وعلى السلطات العامة منع وقوع تمييز تغذّيه الخوارزميات والتصدّي لخطر تزايد انتشار المعلومات المضللة، لا سيما أن الخوارزميات غير المقيّدة قد تُفاقم الانحيازات الاجتماعية وتضاعفها بسرعة فائقة. إنّ وضع أطر متينة تُعلي قيمة العدالة والمساءلة من شأنه تعزيز ثقة الجمهور في الذكاء الاصطناعي وتهيئة بيئة تحترم الحقوق الفردية والقيم المجتمعية.

اقرأ أيضاً: 8 نصائح لتحسين دقة إجابات تشات جي بي تي وتقليل ظاهرة الهلوسة

المسارات المستقبلية

بالنظر إلى المستقبل، فإنّ مدى تأثير الذكاء الاصطناعي في الاقتصاد السياسي العالمي سيعتمد على سلوك الدول واختيارها بين التعاون والتنافس. وقد يغدو وضع المعايير العالمية والأطر الحوكمية أكثر محورية، مع توجه العديد من صانعي السياسات إلى جهات دولية كمنظمة التعاون الاقتصادي والتنمية (OECD) والأمم المتحدة طلباً لتوجيهات بشأن الاستخدام الأخلاقي والعادل للذكاء الاصطناعي. وربما تنشأ اتفاقيات ثنائية أو متعددة الأطراف بين القوى الكبرى والكتل الصاعدة، ما يستوجب تنسيقاً وحوكمةً منسجمة. ومع ذلك، لا شيء يضمن أن تسير هذه المفاوضات في اتجاه توافقي، فالاختلاف في الأولويات الاستراتيجية قد يؤدي إلى سباق لتعريف معايير الذكاء الاصطناعي بما يخدم أجندات وطنية محدودة.

وسيترك هذا الصراع أو الانسجام انعكاساته الأبرز على قضايا العدالة العالمية ومستقبل العمل. إذ يزداد القلق من أن تسهم الطفرات السريعة في الذكاء الاصطناعي في ترسيخ الفجوات الاجتماعية والاقتصادية والإقليمية إن فشلت مجموعاتٌ معينة أو بلدانٌ معينة في أن توفّر البنية التحتية والخبرة اللازمة للاستفادة من هذه التكنولوجيا. وفي زمنٍ باتت فيه القوى العاملة الملمّة بالذكاء الاصطناعي ضرورية، ستضطر البلدان والشركات إلى استثمارٍ كبيرٍ في التعليم والتدريب المهني وبرامج إعادة التأهيل المهني المستمر. كما يلوح في الأفق جدلٌ أكثر حدّة حول الدخل الأساسي الشامل (UBI) وشبكات الأمان الاجتماعي المبتكرة، مع تصاعد تهديد الأتمتة والذكاء الآلي بإزاحة الوظائف في القطاعات التقليدية والجديدة على حدٍّ سواء.

وفي خضمّ هذه الاعتبارات الاجتماعية والاقتصادية الأوسع، سيواصل الذكاء الاصطناعي إحداث تحوّلات جذرية في قطاعات محددة. ففي مجال الرعاية الصحية، تبشّر الأدوات التشخيصية القائمة على الذكاء الاصطناعي وخطط العلاج المخصصة بإتاحة رعاية أشمل وأكثر دقة، لكنها ستتطلب سياساتٍ صارمة لحماية البيانات وضمان توفر الموارد التكنولوجية للجميع بشكلٍ عادل. أمّا في التعليم، فقد يُحدث إدماج منصّات التعلّم التكيّفي قفزةً نوعية في جودة التعليم، إلّا أن استخدام الخوارزميات في العملية التعليمية يفتح الباب أمام تساؤلات صعبة تتعلق بخصوصية البيانات ودور المعلّم وخطر تكريس التحيزات المتأصلة في النظم المؤتمتة. وكذلك في الزراعة، ثمة احتمالات كبيرة لتحسين الأمن الغذائي من خلال الزراعة الدقيقة بالذكاء الاصطناعي، لا سيما في المناطق الشحيحة المياه مثل أجزاء من منطقة الشرق الأوسط وشمال إفريقيا، شريطة معالجة العقبات المتصلة بالبنية التحتية والاستقرار السياسي.

كما ستحتل الجوانب البيئية حيّزاً مهماً في النقاشات حول مستقبل الذكاء الاصطناعي. فرغم الإمكانات الهائلة في تحسين استخدام الطاقة وتطوير نماذجٍ تنبؤية للتحديات المناخية، لا يمكن إغفال البصمة الكربونية الناجمة عن تدريب نماذج الذكاء الاصطناعي على نطاقٍ واسع. وسوف تكون الجهود المبذولة لتصميم خوارزميات أكثر كفاءة في استهلاك الطاقة، والاستثمار في مراكز بياناتٍ صديقة للبيئة، ضرورية للتقليل من الأثر البيئي للحلول المدعومة بالذكاء الاصطناعي. كذلك فإن الأسئلة الأخلاقية والإنسانية المتمثلة في الأسلحة الذاتية التشغيل وتقنيات التزييف العميق ووسائل المراقبة المتقدمة، تقوّض جوهر الحوكمة الديمقراطية وثقة الجمهور والأمن الدولي. وستؤدي الأطر الأخلاقية والمواثيق الدولية دوراً أساسياً في ضمان تسخير طاقات الذكاء الاصطناعي بما يحترم القيم الإنسانية ويحافظ على تماسك المجتمعات.

وفي نهاية المطاف، سيتحدّد مستقبل الذكاء الاصطناعي وفق تفاعل متشابك بين الإنجازات التقنية والاستراتيجيات السياسية والمصالح الاقتصادية. ويظل التساؤل قائماً عمّا إذا كانت هذه القوى ستتلاقى حول معايير مشتركة وحلول تعاونية أمْ ستسهم في تعميق الانقسامات القائمة. وفي كلتا الحالتين، سيغدو الذكاء الاصطناعي عاملاً حاسماً في توجيه مسار التنمية العالمية نحو الاستدامة والعدالة. ومن هنا، تتعاظم مسؤولية صانعي السياسات وقادة القطاعات الصناعية ومنظمات المجتمع المدني في العمل المشترك لرسم مسار الذكاء الاصطناعي على نحو يوازن بين الابتكار والشمول، وبين الطموح والمسؤولية.

المحتوى محمي