التعلم العميق عند سرعة الضوء: هل يمكن للحوسبة الضوئية حل مشاكل الذكاء الاصطناعي؟

5 دقائق
تعلم عميق سرعة الضوء
الصورة الأصلية: أليكساندر دابييف عبر أنسبلاش | تعديل: إم آي تي تكنولوجي ريفيو العربية

قانون مور وحدود قدرات شرائح المعالجة

يتردد مصطلح “قانون مور” في كل مرة يتم الحديث عن تطور الشرائح الإلكترونية، الذي يمكن أن يفهم على أنه تنبؤ بكيفية تطور المعالجات: يجب أن يتضاعف عدد الترانزستورات على شريحة المعالجة كل سنتين تقريباً، ما يعني أنه يجب تخفيض حجم الترانزستورات بشكلٍ مستمر لضمان القدرة على زيادة عددها على الشريحة. زيادة عددها على الشريحة يعني ببساطة أمراً واحداً: زيادة كفاءة الشريحة من حيث قدرتها على إنجاز العمليات الحوسبية، أي أنها ستصبح أسرع وأكثر قدرة على معالجة مشاكل ذات مستوى تعقيد أعلى.

تم صياغة قانون مور سنة 1965 من قِبل الشريك المؤسس لشركة إنتل جوردون مور، ومنذ ذلك الوقت وحتى وقتنا هذا، تطورت صناعة الشرائح الإلكترونية تقريباً وفقاً لهذه الصياغة، إلا أننا اليوم نقف على أعتاب نهاية القدرة على الاستمرار في تنفيذ قانون مور (أو تنبؤ مور إن صح التعبير)، والسبب بسيط: الاستمرار في تصغير الترانزستورات بهدف زيادة عددها على الشريحة سيصل إلى حدٍ لن يكون بالإمكان عبره السيطرة على سلوك الترانزستورات بشكل دقيق، على الأقل باستخدام التقنيات التي نستخدمها في الوقت الحاليّ.

وصلت التقنية اليوم إلى إمكانية تصنيع معالجات بدقة 5 نانومتر (أي أن بعد الترانزستور الواحد من رتبة 5 نانومتر)، بعد أن كان من المتوقع ألا يستطيع أحد تصنيع معالجات بدقة أقل من 7 نانومتر، ولكن من المؤكد أن تجاوز هذه العتبات هو أمرٌ بالغ الصعوبة، إن لم يكن مستحيلاً، وبالتالي نحن في حاجة إلى بدائل.

الذكاء الاصطناعي في حاجة مستمرة إلى زيادة قدرات المعالجة

لو أردنا أن نكون منطقيين نوعاً ما، فسنرى أن معظم حاجاتنا اليومية (سواء في العمل أو على الصعيد الشخصيّ) لا تتطلب زيادة كبيرة في قدرات المعالجة الحاسوبية، إلا أن تطور بعض الخدمات يتطلب بكل تأكيد أنظمة حاسوبية ذات كفاءة أعلى، سواء على صعيد قدرات المعالجة أو على صعيد استهلاك الطاقة.

التعلم العميق هو أحد تلك الجوانب؛ حيث يشكل التعلم العميق أكثر أنماط الذكاء الاصطناعي (أو لنكن دقيقين أكثر: التعلم الآلي) انتشاراً، وتتزايد اعتمادية الشركات والمراكز البحثية وحتى الحكومات على البرمجيات المبنية على خوارزميات التعلم العميق، بفضل ما أثبتته من تفوقٍ كبير في مجالاتٍ متنوعة: معالجات اللغات الطبيعية، ومعالجة الصور، والتعرف على الوجوه، والسيارات ذاتية القيادة، وعمليات التشخيص الطبي، وكشف الاحتيال، وغيرها الكثير من المجالات.

المشكلة أن كفاءة تنفيذ برمجيات وخوارزميات التعلم العميق مرتبطة بكفاءة العتاد الحاسوبي الذي يتولى عملية تنفيذها. حتى الآن، سمح تطور شرائح المعالجة (خصوصاً وحدات المعالجة الرسومية GPUs) بتحسين أداء الشبكات العصبونية الاصطناعية (أي التعلم العميق) وزيادة قدرتها على اتخاذ قرارات وتوقعات ذات دقة عالية وسرعة مقبولة. وإن ما يجعل الواقع الحاليّ أسوأ هو معدل تطور خوارزميات التعلم العميق بسبب الأبحاث الكبيرة والاستثمارات الضخمة في هذا المجال، الذي يتجاوز معدل تطور شرائح المعالجة، ما يعني أنه رغم ظهور خوارزميات أو برمجيات ذات قدرات واعدة ودقة عالية، فإن العتاد الحاسوبي المتوفر قد لا يسمح لنا باستثمارها.

ولكن في حال لم يعد هنالك إمكانية لتحسين العتاد الحاسوبي الذي يتولى تنفيذ برمجيات التعلم العميق، فما الذي سيحدث بالضبط؟ هنا سيكون أمام هذه التقنية خيارين: الخيار الأول هو الاعتماد على التحسين، بمعنى أن تُحسن خوارزميات (وبرمجيات) التعلم العميق لجعلها تُنفذ خلال زمن أقصر، وهو الأمر الذي قد يتطلب وقتاً طويلاً لأن الشبكات العصبونية هي في الواقع عبارة عن مجموعة ضخمة ومعقدة جداً من العمليات الحسابية الرياضية، وتحسين أدائها سيتطلب البحث عن العمليات التي يمكن اختصارها دون التأثير على دقة وكفاءة الشبكة ككل في اتخاذ القرار المطلوب، وهذا يعني وقتاً طويلاً من البحث والتجريب حتى الوصول لخوارزمية محسنة.

ينطوي خيار التحسين بدوره على قيدٍ أساسيّ يتمثل في أنه من المستحيل عملياً إجراء عمليات التحسين إلى ما لا نهاية. هناك حد لن يستطيع تجاوزه ولن يكون هنالك إمكانية تنفيذ أي تحسين إضافي، سواء على الخوارزمية أو البرامج والتطبيقات. هذا ينقلنا إلى الخيار الثاني، وهو إيجاد عتاد جديد قادر على توفير قدرات معالجة كبيرة وغير مرتبط بمحدوديات الصناعة التقنية الحالية.

الحوسبة الضوئية: الفوتونات بدلاً من الإلكترونات

تعد الترانزستورات وحدات البناء الأساسية لتصنيع المعالجات وهي تعتمد على مرور الإلكترونات ضمنها من أجل توليد البتات الرقمية، أي المعلومات. وتعتمد الحوسبة الضوئية على أمرٍ آخر، هو الفوتونات؛ أي الجسيمات الحاملة لطاقة الإشعاع الكهرومغناطيسي، وفكرة استخدام الفوتونات ليست جديدة بحد ذاتها، ولكن بسبب تطور صناعة شرائح المعالجة اعتماداً على الترانزستورات الإلكترونية لم يحصل مجال الحوسبة الضوئية على اهتمام متزايد إلا في السنوات الأخيرة، أي منذ أن بدأت تقنيات التصنيع تصل إلى حدودها القصوى، وبدا واضحاً أنه لن يكون بالإمكان الاستمرار في تحسين قدرات المعالجات.

أبرز مزايا الحوسبة الضوئية هي عرض مجال الحزمة (Bandwidth) الذي تمتلكه الفوتونات، وهو ما يجعلها قادرة على نقل كميات أكبر من المعلومات فضلاً عن سرعتها الكبيرة؛ حيث تنتقل الفوتونات بسرعة الضوء، وهي بذلك أسرع من الإلكترونات المنتقلة عبر النواقل النحاسية والمعدنية في شرائح المعالجة الحالية. هذا الأمر معروف وليس بجديد، ونحن نعتمد على تقنياتٍ مماثلة مثل كابلات الألياف الضوئية التي تنقل المعلومات بسرعاتٍ عالية عبر مسافاتٍ طويلة. المشكلة أنه عند وصول المعلومات عبر كابلٍ ضوئيّ من المرسل إلى المستقبل سيتم إعادة تبديلها إلى إلكترونات مرة أخرى، لتكون الترانزستورات قادرة على فهمها وتوليد البتات الرقمية التي تمثل المعلومات المُرسلة، وهذا يعني هدر في الطاقة والتسبب في بطء عملية المعالجة ككل.

يركز العمل الحالي في مجال الحوسبة الضوئية على استبدال العناصر والوحدات التي تشكل الأنظمة الحاسوبية الإلكترونية بأخرى معتمدة على الفوتونات، وهو حلٌ منطقيّ ومتوافق مع التقنيات المستخدمة حالياً من ناحية عدم الحاجة لبناء نظام حاسوبي ضوئي بالكامل، بل تضمين أنظمة المعالجة الضوئية في البنى الحاسوبية المستخدمة الآن. على صعيدٍ آخر، ولتجنب الخسارة في الطاقة الناجمة عن تبديل المعلومات من تمثيلها الضوئي إلى آخر إلكتروني، يعمل البعض على بناء نظام حوسبة ضوئي بالكامل.

الحوسبة عند سرعة الضوء: هل سنحصل عليها قريباً؟

هنالك الكثير من البحث والاستثمار في مجال الحوسبة الضوئية كونها تمثل أحد البدائل الواعدة لإيجاد حلول للمشاكل الراهنة، مثل حاجة برمجيات التعلم العميق إلى قدرات معالجة أفضل، وذلك إلى جانب بدائل أخرى مثل الحوسبة الكمومية. الأمر الرائع هنا هو الجهود التي يبذلها البعض في سبيل تطوير حاسوبٍ كموميّ فوتوني، بمعنى استثمار عدة تقنيات جديدة في آنٍ واحدٍ معاً من أجل الحصول على نظام حوسبة جديد (مثل الإنجاز الكبير الذي سجله باحثون في الصين عبر تحقيق التفوق الكمومي ضمن حاسوب كمومي فوتوني).

بالنسبة لمجال التعلم العميق والشبكات العصبونية، تستعد بعض الشركات بالفعل لطرح شرائح المعالجة الضوئية الخاصة بها والمخصصة لمهام الذكاء الاصطناعي، مثل شركة لايت ماتر (Lightmatter) التي ستبدأ التسويق قريباً لشريحة المعالجة الضوئية الخاصة بها والموجهة لأغراض تسريع أداء الشبكات العصبونية؛ حيث تمثل الشريحة الجديدة تحسيناً على نموذج مارس (Mars) الذي سبق وأن كشفت عنه الشركة في شهر أغسطس الماضي، والتي تعتمد بشكلٍ أساسيّ على جهاز ماك-زيندر للتداخل الضوئيّ (Mach-Zehnder Interferometer)، المستخدم في تسريع عمليات ضرب المصفوفات الخاصة بحسابات الشبكات العصبونية، وبالتحديد في مجال عمليات الاستخلاص (Inference) الخاصة بالشبكات العصبونية، وليس في مجال تدريب الشبكات؛ إذ إن الدقة التي تمتلكها هذه الشريحة لا تزال غير مناسبة للاستخدام في مجال التدريب.

تعمل بعض الشركات مثل شركة لومينوس (Luminous) على مجالاتٍ أخرى، كاستخدام الحوسبة الضوئية لإجراء العمليات الحسابية الخاصة بالشبكات العصبونية المحاكية لآلية عمل العصبونات في الدماغ؛ حيث تتميز العصبونات الحيوية بقدرتها الفائقة على معالجة المعلومات باستخدام كميةٍ قليلة من الطاقة، وهو ما تأمل الشركة في الوصول إليه في وقتٍ ما بين عامي 2022 و2025، وهي تحصل على دعمٍ كبير من شخصياتٍ بارزة مثل بيل جيتس الذي يعد أبرز المستثمرين في الشركة.

على الصعيد البحثيّ هنالك أيضاً عملٌ دائم في مجال تطوير قدرات شرائح المعالجة الضوئية، وآخر الإنجازات بهذا الصدد هو ما كشفت عنه جامعة سوينبورن التقنية التي أعلنت عن تطوير أسرع شريحة معالجة ضوئية عصبونية البنية (Neuromorphic Optical Processor)، المبنية بشكل خاص للاستخدام في مجال الذكاء الاصطناعيّ؛ حيث تستطيع هذه الشريحة تنفيذ عمليات المعالجة عند معدلٍ قدره 10 تريليون عملية بالثانية، ما يجعلها قادرة على معالجة كميات ضخمة من البيانات في وقتٍ واحد.

لو أردنا المقارنة، فإن شركة مثل جوجل تمتلك أنظمة قادرة على معالجة المعلومات بمعدلٍ قدره 100 تريليون عملية بالثانية، ولكن هذا يتم عبر أنظمة معقدة وشبكة ضخمة من آلاف المعالجات التي تعمل مع بعضها بالتوازي، في حين أن شريحة جامعة سوينبورن الجديدة تمتلك معالجاً وحيداً قادر على إنجاز 10 تريليون عملية بالثانية.

المحتوى محمي