إذا لم يسارع المشرّعون إلى اتخاذ إجراءات فورية، فسوف تؤدي طفرة الذكاء الاصطناعي التوليدي إلى زيادة تركيز النفوذ في أيدي الشركات التكنولوجية الكبرى. هذه هي الحجة الرئيسية التي يتمحور حولها تقرير جديد من المعهد البحثي إيه آي ناو (AI Now)، وهي فكرة منطقية. وحتى نفهم هذه الفكرة، يجب أن نعرف أن طفرة الذكاء الاصطناعي الحالية تعتمد على أمرين: كميات ضخمة من البيانات، وقدرات حاسوبية كافية لمعالجتها، وهذان الموردان غير متوفرين على نحو فعلي إلا لدى الشركات التكنولوجية الكبيرة.
ومع أن بعض أكثر التطبيقات نجاحاً؛ مثل بوت الدردشة تشات جي بي تي (ChatGPT) من أوبن أيه آي (OpenAI)، ونظام الذكاء الاصطناعي لتوليد الصور ستيبل ديفيوجن (Stable Diffusion) من ستابيليتي أيه آي (Stability.AI)، هي من ابتكار الشركات الناشئة؛ إلا أنها تعتمد على صفقات أُبرمت مع الشركات التكنولوجية الكبيرة لاستخدام مواردها من البيانات الضخمة وقدرات الحوسبة العالية.
تقول المديرة الإدارية للأبحاث في معهد أيه آي ناو البحثي اللاربحي، سارة مايرز ويست: "أصبحت عدة شركات تكنولوجية كبيرة في وضع يسمح لها بتعزيز نفوذها من خلال الذكاء الاصطناعي، بدلاً من إتاحة استثماره على نطاق واسع".
اقرأ أيضاً: مؤتمر جوجل آي/ أو: الكشف عن هواتف جديدة وبحث مدعوم بالذكاء الاصطناعي
سيطرة الشركات التكنولوجية الكبرى على الذكاء الاصطناعي
حالياً، تسيطر الشركات التكنولوجية الكبرى على الذكاء الاصطناعي بإحكام؛ ولكن مايرز وسيت تعتقد أننا نشهد لحظة تحوّل. إنها بداية دورة جديدة من الضجيج الإعلامي حول التكنولوجيا، وهذا يعني وجود فرصة فريدة أمام المشرّعين وصانعي القوانين لضمان مزيد من الديمقراطية والعدالة في تكنولوجيا الذكاء الاصطناعي على امتداد العقد المقبل.
وتتميز هذه الطفرة التكنولوجية عن الطفرات السابقة بوجود درجة أعلى من الاستيعاب للكوارث التي يمكن أن يتسبب بها الذكاء الاصطناعي جميعها. ويبدو أن المشرّعين في كل مكان يراقبون ما يحدث من كثب، فقد أعلنت الصين مؤخراً عن مسودة مشروع قانون حول الذكاء الاصطناعي التوليدي، وتدعو فيها إلى المزيد من الشفافية والإشراف، على حين يخوض الاتحاد الأوروبي مفاوضات حول قانون الذكاء الاصطناعي الذي سيفرض على الشركات التكنولوجية أن تكون أكثر شفافية بشأن كيفية عمل أنظمة الذكاء الاصطناعي التوليدية. كما يخطط الاتحاد الأوروبي أيضاً لمشروع قانون يحمّل هذه الشركات مسؤولية الأذى الذي يتسبب به الذكاء الاصطناعي.
أما الولايات المتحدة، فلطالما كانت مترددة في تنظيم قطاعها التكنولوجي؛ ولكن هذا الأمر بدأ يتغير. حيث تعمل إدارة الرئيس الأميركي بايدن على جمع الآراء حول أساليب الإشراف على نماذج الذكاء الاصطناعي مثل تشات جي بي تي، وذلك، على سبيل المثال لا الحصر، عن طريق فرض إجراء دراسات لتقييم آثار هذه النماذج وعمليات تدقيق على الشركات التكنولوجية، أو فرض معايير محددة يجب أن تحققها أنظمة الذكاء الاصطناعي قبل إطلاقها. وتُعد هذه الخطوة واحدة من أكثر الخطوات التي اتخذتها إدارة بايدن للحد من أضرار الذكاء الاصطناعي وضوحاً.
اقرأ أيضاً: يمكن استخدامها على المريخ وفي حالات الكوارث: تقنية واعدة للبناء باستخدام الطباعة ثلاثية الأبعاد
تنظيم قطاع الذكاء الاصطناعي على نطاق واسع
وفي هذه الأثناء، أكدت رئيسة مجلس إدارة هيئة التجارة الفيدرالية الأميركية (FTC)، ليندا خان، الأفضلية التي تتمتع بها الشركات التكنولوجية الكبيرة من حيث البيانات وقدرات الحوسبة، وتعهدت بضمان وجود منافسة حقيقية في قطاع الذكاء الاصطناعي. وقد هددت هذه الوكالة بإجراء تحقيقات حول الاحتكار، وتشديد إجراءاتها لمكافحة الممارسات التجارية المضللة.
يُعزى هذا التركيز الجديد على قطاع الذكاء الاصطناعي، جزئياً، إلى عمل الكثيرين من معهد أيه آي ناو؛ بمن فيهم مايرز ويست، لبعض الوقت في هيئة التجارة الفيدرالية لتعزيزها بخبراتهم التقنية.
وتقول مايرز ويست إن انتدابها إلى الهيئة علّمها أنه ليس من الضروري أن يبدأ تنظيم الذكاء الاصطناعي من نقطة الصفر، فبدلاً من انتظار القوانين المتعلقة بالذكاء الاصطناعي على وجه الخصوص؛ مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي الذي سيستغرق البدء بتطبيقه عدة سنوات، يمكن للمشرعين أن يعززوا فرض القوانين الحالية المتعلقة بحماية البيانات والمنافسة.
وبما أن الذكاء الاصطناعي بشكله الحالي يعتمد بدرجة كبيرة على كميات هائلة من البيانات، فإن سياسات البيانات تُعَدّ سياسات تخص الذكاء الاصطناعي أيضاً، على حد تعبير لمايرز ويست.
وعلى سبيل المثال: تعرض تشات جي بي تي إلى تدقيق شديد من سلطات حماية البيانات الأوروبية والكندية؛ كما حُظر في إيطاليا بسبب اتهامات بجمع البيانات الشخصية من على الإنترنت بصورة غير قانونية، وإساءة استخدام البيانات الشخصية.
ولكن الدعوة إلى وضع لوائح تنظيمية لم تعد مقتصرة على المسؤولين الحكوميين فقط، فقد حدث شيء غريب ومثير للاهتمام. فبعد عقود كاملة من الوقوف بشراسة في وجه إقرار لوائح تنظيمية، تزعم غالبية الشركات التكنولوجية في الوقت الحالي؛ بما فيها أوبن أيه آي، أنها ترحب بجهود التنظيم هذه.
اقرأ أيضاً: دليل شامل ومبسط حول مفهوم الذكاء الاصطناعي
وجهات نظر مختلفة حول آلية تنظيم الذكاء الاصطناعي
أما السؤال الرئيسي الذي ما زال موضوع جدل حاد فهو يتعلق بكيفية تنظيم الذكاء الاصطناعي، فالشركات التكنولوجية تدّعي أنها تدعم التنظيم ولكنها ما زالت تفضل المقاربة التي تقوم على "إطلاق المنتجات أولاً وتدقيقها لاحقاً"، لتنظيم إطلاق المنتجات التي تعتمد على الذكاء الاصطناعي. وتسارع الشركات التكنولوجية إلى إطلاق نماذج الذكاء الاصطناعي لتوليد الصور والنصوص على شكل منتجات، على الرغم من عيوبها الكبيرة؛ مثل ابتداع نتائج تفتقد إلى المنطق، ونشر التحيزات المؤذية، وانتهاك حقوق الملكية الفكرية، إضافة إلى احتوائها على ثغرات أمنية.
ويقول تقرير إيه آي ناو إن الإجراءات التي اقترحها البيت الأبيض للتعامل مع قضية خضوع الذكاء الاصطناعي للمساءلة بعد إطلاق منتجات الذكاء الاصطناعي؛ مثل تدقيق الخوارزميات، ليست كافية للتخفيف من أضرار الذكاء الاصطناعي. ويجب اتخاذ إجراءات أكثر صرامة وسرعة لضمان إثبات الشركات لصلاحية نماذجها للإطلاق قبل إطلاقها فعلياً، وذلك على حد تعبير مايرز ويست.
وتقول: "يجب أن نحترس من المقاربات التي لا تحمل الشركات مسؤولياتها. وثمة الكثير من الأساليب التنظيمية التي تضع مسؤولية التخلص من أضرار الذكاء الاصطناعي على عاتق عامة الناس والمشرّعين بشكل أساسي".
اقرأ أيضاً: الذكاء الاصطناعي: هل حان الوقت للحديث عن النفوذ بدلاً من مناقشة الأخلاقيات؟
أما الأمر الأكثر أهمية وفقاً لمايرز ويست، فهو اتخاذ المشرّعين لإجراءاتهم بسرعة؛ حيث تقول: "يجب فرض عقوبات شديدة على الشركات التكنولوجية التي تخالف القانون".