كيف كانت عطلتك؟ أنا أمضيت عطلتي في فنلندا المغطاة بالثلوج، بعيداً عن الإنترنت. وكان ذلك مريحاً للغاية. أتمنى أنك حصلت على قدر كافٍ من الراحة، وذلك لأن عام 2023 سيكون مليئاً بالإنجازات في مجال الذكاء الاصطناعي أكثر من سابقه حتى.
عام 2022: منعطفات في مسار الذكاء الاصطناعي
تم تحقيق إنجازات كبيرة في مجال الذكاء الاصطناعي التوليدي عام 2022، مثل تطوير نموذج تحويل النصوص إلى الصور الذي يحمل اسم ستيبل ديفيوجن (Stable Diffusion)، ومولّد النصوص الذي يحمل اسم تشات جي بي تي (ChatGPT). كانت هذه المرة الأولى التي يكتسب فيها الأشخاص غير الضليعين بالتكنولوجيا الخبرة العملية في استخدام الأنظمة التي تعتمد على الذكاء الاصطناعي.
اقرأ أيضاً:
على الرغم من أني حاولت جهدي ألا أفكر بالذكاء الاصطناعي خلال العطلة، بدا لي أن جميع من التقيت بهم يريدون التحدث عن هذه التكنولوجيا. قابلت ابن عم أحد أصدقائي والذي اعترف بأنه استخدم برنامج تشات جي بي تي لتأليف مقال جامعي (وشحب وجهه عندما علم أني كتبت مؤخراً مقالة حول طرق كشف النصوص المؤلفة بالاستعانة بالذكاء الاصطناعي). كما قابلت أشخاصاً لا أعرفهم في مقهى تحدّثوا معي بشكل عفوي عن تجربتهم في استخدام تطبيق لينسا (Lensa) الشهير الذي ينافس تشات جي بي تي، ومصمّم رسومات كان قلقاً بشأن استخدام مولّدات الصور المعتمدة على الذكاء الاصطناعي.
اقرأ أيضا: الذكاء الاصطناعي في قفص الاتهام: تلاعب بصور الناس وانتهاك للخصوصية
عام 2023: ولادة القوانين التنظيمية للذكاء الاصطناعي
سنشهد عام 2023 تطوير نماذج معتمدة على الذكاء الاصطناعي يمكنها إجراء المزيد من المهام. حاولت إلى جانب زميلي، ويل دوغلاس هيفن (Will Douglas Heaven)، التنبؤ بالتقدّمات الجديدة التي سيتم إحرازها في مجال الذكاء الاصطناعي عام 2023.
ينص أحد توقعاتي على أننا سنشهد تغير القوانين التنظيمية الخاصة بمجال الذكاء الاصطناعي من مبادئ توجيهية أخلاقية غامضة وعالية المستوى إلى قواعد تنظيمية دقيقة وصارمة مع وضع الجهات الرقابية الأوروبية اللمسات الأخيرة على قواعد استخدام هذه التكنولوجيا، وصياغة قواعد جديدة من قبل الوكالات الحكومية الأميركية مثل لجنة التجارة الفدرالية.
يعمل المشرّعون الأوروبيون حالياً على صياغة قواعد تخص نماذج توليد الصور والنصوص المعتمدة على الذكاء الاصطناعي والتي تسببت في موجة من الحماس في هذا المجال مؤخراً، مثل نموذج ستيبل ديفيوجن ولامدا (LaMDA) وتشات جي بي تي. قد تمنع هذه القواعد الشركات من إصدار نماذج الذكاء الاصطناعي الخاصة بها والتي يمكن استخدامها دون أية رقابة أو مساءلة.
اقرأ أيضاً: ميتا تنافس تشات جي بي تي بنموذج ذكاء اصطناعي يتحدث 20 لغة
أصبحت هذه النماذج أساسية في العديد من تطبيقات الذكاء الاصطناعي مؤخراً. مع ذلك، تتكتّم الشركات التي طورتها بشكل تام على طرق تصميمها وتدريبها. لا نعلم الكثير عن آلية عمل هذه النماذج، ما يجعل من الصعب فهم طرق توليدها للمحتوى الذي قد يتسبب في الضرر أو النتائج المنحازة، وإيجاد طرق للتخفيف من عواقب هذه المشكلات.
قانون الذكاء الاصطناعي
يخطط الاتحاد الأوروبي لإضافة بعض القواعد إلى اللوائح التنظيمية الشاملة التي سيتم إصدارها قريباً، والتي تحمل اسم قانون الذكاء الاصطناعي، والتي تجبر الشركات على الإفصاح عن بعض المعلومات حول الآليات التي تعمل وفقها نماذج الذكاء الاصطناعي التي تطورها. من المرجّح أن يتم إصدار هذا القانون خلال النصف الثاني من عام 2023. وبعد ذلك، سيتعيّن على الشركات الامتثال لما ينص عليه إذا رغبت ببيع المنتجات المعتمدة على الذكاء الاصطناعي أو استخدامها في الاتحاد الأوروبي، أو دفع الغرامات التي تصل إلى 6% من إجمالي إيراداتها السنوية.
اقرأ أيضاً: لماذا يصعب تمييز النصوص التي ولدها الذكاء الاصطناعي؟
أطلق الاتحاد الأوروبي على هذه النماذج التوليدية اسم "أنظمة الذكاء الاصطناعي ذات الأغراض العامة" نظراً لأنه يمكن استخدامها لأغراض مختلفة. (لا يجب الخلط بين هذا التعبير وتعبير الذكاء العام الاصطناعي، والذي يعبّر عن فكرة الذكاء الاصطناعي الفائق). على سبيل المثال، يمكن استخدام النماذج اللغوية الكبيرة مثل الجيل الثالث من تقنية المحول المدرَّب لتوليد النصوص (جي بي تي-3) في بوتات الدردشة التي تستخدم في خدمة العملاء، أو لإنشاء حقائق مزيفة على نطاق واسع. كما يمكن استخدام نموذج ستيبل ديفيوجن لتصميم الصور المستخدمة في بطاقات المعايدة.
اقرأ أيضاً: الجميع في انتظار جي بي تي 4 وأوبن أيه آي ما زالت تحاول إصلاح الإصدار السابق
يقول العضو الليبرالي في البرلمان الأوروبي، دراغوش تودوراكيه (Dragoș Tudorache)، والذي ينتمي للفريق الذي يخوض المفاوضات المتعلقة بقانون الذكاء الاصطناعي، إنه على الرغم من أن الطريقة التي سيتم فيها تنظيم استخدام هذه النماذج بموجب قرار الذكاء الاصطناعي هي موضع جدل حامي الوطيس، فإن مصممي نماذج الذكاء الاصطناعي ذات الأغراض العامة، كشركة أوبن أيه آي (OpenAI) وجوجل (Google) وديب مايند (DeepMind)، ستضطر لأن تكون أكثر شفافية فيما يتعلق بطرق تصميم نماذجها وتدريبها.
اقرأ أيضاً: هل تحقق شركة ديب مايند الأهداف الطبية التي أنشئت لأجلها؟
يقول الباحث في حوكمة الذكاء الاصطناعي في معهد بروكينغز، أليكس إنغلر (Alex Engler)، إن تنظيم هذه التكنولوجيا يعتبر صعباً نظراً لوجود نوعين مختلفين من المشكلات المتعلقة بالنماذج التوليدية تعتبر حلولهما السياسية مختلفة للغاية. يتمثل النوع الأول في المحتوى الضار المولّد من قبل الذكاء الاصطناعي، مثل الخطاب المحرّض على الكراهية. بينما يتمثل النوع الثاني في احتمالية ظهور النتائج المنحازة عندما تستخدم الشركات نماذج الذكاء الاصطناعي في عمليات التوظيف أو مراجعة الوثائق القانونية.
ضرورة فرض قيود داخل النماذج التوليدية
قد تساعد مشاركة المزيد من المعلومات الخاصة بهذه النماذج الجهات الأخرى التي تصمم منتجاتها بناء على النماذج. ولكن عندما يتعلق الأمر بنشر المحتوى الضار والمولد من قبل الذكاء الاصطناعي، هناك حاجة لتطبيق قواعد أكثر صرامة. يقترح إنغلر أنه يجب مطالبة مصممي النماذج التوليدية بفرض قيود داخل نماذجهم تتحكم فيما يمكن توليده، ومراقبة نتائجها وحظر المستخدمين الذين يسيئون استخدام التكنولوجيا. لكن حتى هذه المقترحات لن تمنع الأشخاص المصممين على نشر المحتوى الضار عن فعل ذلك.
اقرأ أيضاً: هل هناك حدود أخلاقية في تطوير الذكاء الاصطناعي؟
على الرغم من أن شركات التكنولوجيا تتردد في كشف أسرارها عادة، قد تمثّل جهود الجهات الرقابية الحالية الهادفة لتعزيز الشفافية ومساءلة الشركات بداية حقبة جديدة تقل القدرة فيها على استغلال الذكاء الاصطناعي لأهداف شخصية ويتم استخدامه فيها بطريقة لا تنتهك حقوق الإنسان مثل الخصوصية. ويشعرني ذلك بأن عام 2023 سيكون أفضل.