ما دفعني إلى كتابة هذا المقال هو أن أحد مسؤولي التحرير لدي استيقظ في منتصف الليل ودون على مفكرة بجانب السرير: "ما هو المعامل؟" على عكس الكثير من الأفكار التي تراودني في الساعة الرابعة صباحاً، إنه سؤال وجيه حقاً، سؤال يمس جوهر كيفية عمل النماذج اللغوية الكبيرة. وأنا لا أقول ذلك فقط لأنه مديري في العمل. (مرحباً أيها المدير!)
غالباً ما يقال إن معاملات (parameters: أي المتغيرات الوسيطة) النموذج اللغوي الكبير هي بمثابة المفاتيح ومقابض التشغيل التي تتحكم في كيفية تصرفه. تخيل آلة كرة ودبابيس (فليبر) بحجم كوكب، ترسل كراتها من طرف إلى آخر عبر المليارات من المضارب والمصدات المثبتة بدقة. فإذا غيرت هذه الإعدادات، ستتصرف الكرات بطريقة مختلفة.
يحتوي النموذج جي بي تي 3 الذي أصدرته شركة أوبن أيه آي عام 2020 على 175 مليار معامل. وقد يحتوي جيميناي 3، وهو أحدث نموذج لغوي كبير من شركة جوجل ديب مايند، على تريليون معامل على الأقل -ويعتقد البعض أنها ربما تصل إلى 7 تريليونات- لكن الشركة لا تفصح عن ذلك. (مع احتدام المنافسة حالياً، لم تعد شركات الذكاء الاصطناعي تشارك المعلومات حول كيفية بناء نماذجها).
لكن أساسيات ماهية المعاملات وكيفية تأثيرها في أداء النماذج اللغوية الكبيرة تبقى نفسها في مختلف النماذج. هل تساءلت يوماً "ما الذي يجعل النموذج اللغوي الكبير فعالاً حقاً؟"أو "ما الذي يكمن وراء استعارة آلة الكرة والدبابيس الملونة؟" دعونا نتعمق في الموضوع.
اقرأ أيضاً: كيف تستفيد من التعلم الآلي لتسهيل أداء مهامك؟
ما هو المعامل؟
تذكر دروس مادة الجبر في المرحلة الإعدادية، مثل: 2a + b. هذه الأحرف هي المعاملات: عين قيماً لها وستحصل على نتيجة. في الرياضيات أو البرمجة، تستخدم المعاملات لتعيين الحدود أو تحديد المخرجات. وتعمل المعاملات داخل النماذج اللغوية الكبيرة بطريقة مماثلة، ولكن على نطاق واسع للغاية.
كيف تتعين قيمها؟
الإجابة المختصرة: خوارزمية. عند تدريب النموذج، يجري إسناد قيمة عشوائية إلى كل معامل. تتضمن عملية التدريب بعد ذلك سلسلة تكرارية من العمليات الحسابية (المعروفة باسم خطوات التدريب) التي تعمل على تحديث تلك القيم. في المراحل المبكرة من التدريب، قد يرتكب النموذج أخطاء. تتحقق خوارزمية التدريب من كل خطأ وتعيد فحص النموذج، لتعدل قيمة كل معامل من معاملات النموذج العديدة بحيث يكون الخطأ في المرة التالية أصغر. يحدث هذا مراراً وتكراراً حتى يتصرف النموذج بالطريقة التي يريدها مصمموه. عند هذه المرحلة، يتوقف التدريب وتثبت الخوارزمية قيم معاملات النموذج.
الأمر يبدو واضحاً وسهل الفهم
هذا صحيح نظرياً! أما من الناحية العملية، فنظراً لأن النماذج اللغوية الكبيرة يجري تدريبها على الكثير من البيانات وتحتوي على الكثير من المعاملات، فإن تدريبها يتطلب عدداً كبيراً من الخطوات وكمية هائلة من العمليات الحسابية. في أثناء التدريب، يجري تحديث كل معامل من المعاملات التي يبلغ عددها 175 ملياراً داخل نموذج لغوي كبير متوسط الحجم مثل جي بي تي 3 عشرات الآلاف من المرات. وإجمالاً، يصل مجموع ذلك الكوادريليونات (وهو رقم يحتوي على 15 صفراً) من العمليات الحسابية الفردية. هذا هو السبب في أن تدريب النماذج اللغوية الكبيرة يستهلك الكثير من الطاقة، فنحن نتحدث عن الآلاف من أجهزة الكمبيوتر المتخصصة العالية السرعة التي تعمل دون توقف عدة أشهر.
اقرأ أيضاً: كيف تتحرّر من «ديكتاتورية» الخوارزميات على الشبكات الاجتماعية؟
عجباً! ما هو الغرض من هذه المعاملات كلها بالضبط؟
ثمة ثلاثة أنواع مختلفة من المعاملات داخل النموذج اللغوي الكبير، وتتحدد قيمها من خلال التدريب: التمثيلات المضمنة، والأوزان، والانحيازات. لنتناول كلاً منها على حدة.
حسناً! إذاً ما هي التمثيلات المضمنة؟
التمثيل المضمن هو التمثيل الرياضي للكلمة (أو جزء من الكلمة، ويعرف باسم الرمز المميز [token]) في مفردات النموذج اللغوي الكبير. يحدد مصممو النموذج اللغوي الكبير مفرداته قبل بدء التدريب، والتي قد تحتوي على مئات الآلاف من الرموز الفريدة. لكن هذه الكلمات لا تحمل أي معانٍ، بل تكتسب معانيها في أثناء التدريب.
عند تدريب نموذج ما، تعطى قيمة عددية لكل كلمة في مفرداته تجسد معنى تلك الكلمة بالنسبة للكلمات الأخرى جميعها، بناءً على كيفية ظهور الكلمة في عدد لا يحصى من الأمثلة عبر بيانات تدريب النموذج.
هل يستبدل بكل كلمة نوع من التعليمات البرمجية؟
أجل، لكن الأمر ليس بهذه البساطة. إن القيمة العددية -التمثيل المضمن- التي تمثل كل كلمة هي في الواقع قائمة من الأرقام، حيث يمثل كل رقم في القائمة جانباً مختلفاً من المعنى الذي استخلصه النموذج من بيانات التدريب. طول هذه القائمة من الأرقام هو أمر آخر يمكن لمصممي النموذج اللغوي الكبير تحديده قبل تدريبه. والحجم الشائع هو 4,096.
هل يجري تمثيل كل كلمة داخل نموذج لغوي كبير بقائمة من 4,096 رقماً؟
أجل، فهذا تمثيل مضمن. ويخضع كل رقم من هذه الأرقام للتعديل في أثناء التدريب. ويقال إن النموذج اللغوي الكبير ذا التمثيلات المضمنة التي يبلغ طولها 4,096 رقماً يمتلك 4,096 بعداً.
لماذا 4,096؟
قد يبدو رقماً غريباً. لكن النماذج اللغوية الكبيرة (مثل أي برنامج يعمل على شريحة كمبيوتر) تعمل بكفاءة عالية مع الأعداد التي تمثل قوى الرقم 2، وهي: 2، 4، 8، 16، 32، 64، وهكذا دواليك. لقد وجد مهندسو النماذج اللغوية الكبيرة أن الرقم 4,096 هو أحد قوى الرقم 2 التي تحقق توازناً مثالياً بين القدرة والكفاءة. فالنماذج ذات الأبعاد الأقل تكون أقل قدرة؛ أما النماذج ذات الأبعاد الأكثر فتكون مكلفة للغاية أو بطيئة في التدريب والتشغيل.
يسمح استخدام المزيد من الأرقام للنماذج ذات الأبعاد الأكثر بالتقاط معلومات دقيقة للغاية حول كيفية استخدام الكلمة في العديد من السياقات المختلفة، والدلالات الدقيقة التي قد تحملها، وكيفية ارتباطها بكلمات أخرى، وما إلى ذلك.
في فبراير/شباط الماضي، أطلقت أوبن أيه آي جي بي تي 4.5، وهو أكبر نموذج لغوي كبير لدى الشركة حتى الآن (تشير بعض التقديرات إلى أن عدد معاملاته يتجاوز 10 تريليونات). أخبرني عالم الأبحاث في أوبن أيه آي الذي عمل على النموذج، نيك رايدر، حينها أن النماذج الأكبر تستطيع التعامل مع معلومات إضافية، مثل الإشارات العاطفية، كأن تشير كلمات المتحدث إلى العداء، حيث يقول: "كل هذه الأنماط الدقيقة التي تظهر في المحادثات البشرية، هي الأجزاء التي ستلتقطها هذه النماذج التي يزداد حجمها بمرور الوقت".
الخلاصة هي أن جميع الكلمات الموجودة داخل نموذج لغوي كبير ما يجري ترميزها ضمن فضاء يمتلك عدداً كبيراً من الأبعاد. تخيل آلاف الكلمات التي تطفو في الهواء من حولك، والكلمات القريبة بعضها من بعض تحمل معاني متشابهة. على سبيل المثال، ستكون الكلمتان "طاولة" و"كرسي" أقرب إلى بعضهما بعضاً من "رائد فضاء"، التي ستكون قريبة من كلمتي "قمر" و"ماسك". وعلى مسافة بعيدة يمكنك أن ترى كلمة "سحر". الأمر يشبه ذلك إلى حد ما، ولكن بدلاً من أن تكون الكلمات مرتبطة بعضها ببعض عبر ثلاثة أبعاد، فإن الكلمات الموجودة داخل نموذج لغوي كبير مرتبطة عبر 4,096 بعداً.
يا للفظاعة
إنه أمر مذهل. في الواقع، يضغط النموذج اللغوي الكبير محتوى الإنترنت بأكمله في بنية رياضية ضخمة واحدة تعمل على ترميز كمية لا يمكن فهمها من المعلومات المترابطة. وهذا هو سبب قدرة النماذج اللغوية الكبيرة على تنفيذ مهام مذهلة، وسبب استحالة فهمها بالكامل.
اقرأ أيضاً: لماذا سيصبح تدريب نماذج الذكاء الاصطناعي الموسيقية مكلفاً للغاية؟
حسناً، كان ذلك الترميز المضمن فماذا عن الأوزان؟
الوزن هو معامل يمثل قوة الارتباط بين الأجزاء المختلفة للنموذج، وهو أحد أكثر أنواع "مفاتيح الضبط" شيوعاً لضبط سلوك النموذج. تستخدم الأوزان عندما يعالج نموذج لغوي كبير نصاً.
عندما يقرأ نموذج لغوي كبير جملة (أو فصلاً من كتاب)، فإنه يبحث أولاً عن التمثيلات المضمنة للكلمات جميعها، ثم يمرر هذه التمثيلات عبر سلسلة من الشبكات العصبونية، المعروفة باسم المحولات (transformers)، والمصممة لمعالجة تسلسل البيانات (مثل النص) دفعة واحدة. تجري معالجة كل كلمة في الجملة بالارتباط مع كل كلمة أخرى.
وهنا يأتي دور الأوزان. يمثل التمثيل المضمن معنى الكلمة من دون سياق. عندما تظهر كلمة ما في جملة معينة، تستخدم المحولات الأوزان لمعالجة معنى تلك الكلمة في ذلك السياق الجديد. (عملياً، يتضمن ذلك ضرب كل تمثيل مضمن في أوزان الكلمات الأخرى جميعها)
وماذا عن الانحيازات؟
الانحيازات هي نوع آخر من مفاتيح الضبط التي تكمل تأثيرات الأوزان. فبينما تحدد الأوزان العتبات التي تنشط عندها أجزاء النموذج المختلفة (من ثم تمرر البيانات إلى الجزء التالي). تستخدم الانحيازات لضبط تلك العتبات بحيث يمكن للتمثيل المضمن أن يفعل النشاط حتى عندما تكون قيمته منخفضة. (الانحيازات هي القيم التي تضاف إلى التمثيل المضمن بدلاً من ضربها به).
من خلال تغيير العتبات التي تتفعل عندها أجزاء النموذج، تسمح الانحيازات للنموذج بالتقاط معلومات قد تفوته لولا ذلك. تخيل أنك تحاول سماع ما يقوله شخص ما في غرفة صاخبة، عندها ستعمل الأوزان على تضخيم الأصوات الأعلى أكثر من غيرها؛ أما الانحيازات فهي مثل مقبض في جهاز استماع يرفع الأصوات الخافتة في المزيج الصوتي.
إليك الخلاصة: الأوزان والانحيازات هما طريقتان مختلفتان يلجأ إليهما النموذج اللغوي الكبير لاستخلاص أكبر قدر ممكن من المعلومات من النص المعطى له. ويجري ضبط كلا النوعين من المعاملات مراراً وتكراراً في أثناء التدريب لضمان أنهما يفعلان ذلك.
اقرأ أيضاً: كيف يمكن التوصل إلى ذكاء اصطناعي غير منحاز؟ وما تأثير انحيازه على أماكن تطبيقاته؟
حسناً ماذا عن العصبونات؟ هل هي نوع من المعاملات أيضاً؟
لا، فالعصبونات أكثر من مجرد وسيلة لتنظيم كل هذه العمليات الرياضية، فهي حاويات للأوزان والانحيازات، مترابطة بشبكة من المسارات بينها. وهي مستوحاة بصورة فضفاضة للغاية من الخلايا العصبية البيولوجية داخل أدمغة الحيوانات، حيث تؤدي الإشارات الصادرة عن إحدى الخلايا العصبية إلى إطلاق إشارات جديدة من الخلية التالية، وهكذا دواليك.
يحمل كل عصبون في النموذج انحيازاً واحداً وأوزاناً لكل بعد من أبعاد النموذج. بعبارة أخرى، إذا كان للنموذج 4,096 بعداً -أي أن تمثيلاته المضمنة هي قوائم من 4,096 رقماً- فإن كل عصبون من العصبونات في هذا النموذج سيحمل انحيازاً واحداً و4,096 وزناً.
يرتب المصممون العصبونات في طبقات. في معظم النماذج اللغوية الكبيرة، يكون كل عصبون في طبقة واحدة متصلاً بكل عصبون في الطبقة التي تعلوها. قد يحتوي نموذج يضم 175 مليار معامل مثل جي بي تي 3 على نحو 100 طبقة مع عشرات الآلاف من العصبونات في كل طبقة. وكل عصبون يجري عشرات الآلاف من العمليات الحسابية في كل مرة.
أشعر بالدوار مرة أخرى، فذلك يتضمن الكثير من المفاهيم الرياضية.
هذا كم هائل من المفاهيم الرياضية.
اقرأ أيضاً: نهج مبتكر من أنثروبيك لتحسين سلوك النماذج اللغوية
وكيف تترابط هذه المعلومات كلها معاً؟ كيف يمكن لنموذج لغوي كبير أن يتناول مجموعة من الكلمات ويحدد الكلمات التي يستخدمها في إجاباته؟
عندما يعالج نموذج لغوي كبير جزءاً من النص، يجري تمرير التمثيل العددي لهذا النص -التمثيل المضمن- عبر طبقات متعددة من النموذج. في كل طبقة، يجري تحديث قيمة التمثيل المضمن (تلك القائمة المكونة من 4,096 رقماً) عدة مرات من خلال سلسلة من العمليات الحسابية التي تتضمن أوزان النموذج وانحيازاته (المرتبطة بالعصبونات) حتى تصل إلى الطبقة الأخيرة.
والفكرة مفادها أنه يجري احتواء كل المعاني والفروق الدقيقة والسياق النصي المدخل في القيمة النهائية للتمثيل المضمن بعد أن يكون قد مر بسلسلة محيرة للعقل من العمليات الحسابية. ثم تستخدم تلك القيمة لحساب الكلمة التالية التي يجب أن يخرجها النموذج اللغوي الكبير.
لن يكون مفاجئاً أن هذا الأمر أكثر تعقيداً مما يبدو عليه: في الواقع، يحسب النموذج لكل كلمة في قاموس مفرداته مدى احتمالية ظهورها تالياً، ثم يرتب النتائج. بعد ذلك يختار الكلمة الأعلى احتمالاً. (نوعاً ما. انظر أدناه)
تضاف تلك الكلمة إلى الكتلة السابقة من النص، وتتكرر العملية بأكملها حتى يحسب النموذج اللغوي الكبير أن الكلمة التالية الأكثر احتمالاً لإخراجها هي تلك التي تشير إلى نهاية مخرجاته.
هل هذا كل شيء؟
بالتأكيد. حسناً، لنتابع.
يمكن لمصممي النموذج اللغوي الكبير أيضاً تحديد عدد قليل من المعاملات الأخرى، المعروفة باسم المعاملات الفائقة (hyperparameters). تسمى المعاملات الرئيسية منها "درجة الحرارة"، و"top-p"، و" top-k".
قد تظن أنني أختلق هذه المعلومات
تعد درجة الحرارة معاملاً يؤدي دوراً يشبه مؤشر الإبداع. فهو يؤثر في اختيار النموذج للكلمة التي تأتي تالياً. لقد قلت للتو إن النموذج يصنف الكلمات في قاموس مفرداته ويختار الكلمة الأعلى احتمالاً. ولكن يمكن استخدام معامل درجة الحرارة لدفع النموذج لاختيار الكلمة التالية الأعلى احتمالاً، ما يجعل مخرجاته أكثر واقعية وملاءمة، أو اختيار كلمة أقل احتمالاً، ما يجعل المخرجات أكثر إثارة للدهشة وآلية بدرجة أقل.
أما المعاملان Top-p وtop-k فيمثلان مفتاحي تحكم إضافيين يتحكمان في اختيار النموذج للكلمات التالية. وهما قيمتا إعداد تجبران النموذج على اختيار كلمة عشوائياً من مجموعة من الكلمات الأكثر احتمالاً بدلاً من الكلمة الأعلى احتمالاً على الإطلاق. يؤثر هذان المعاملان في الانطباع الذي يشكله النموذج، فإما أن يكون غريب الأطوار ومبدعاً، أو جديراً بالثقة ومملاً.
اقرأ أيضاً: سباق التسلح القادم: كيف تستعد الشركات لمواجهة الجرائم المدعومة بالذكاء الاصطناعي؟
سؤال أخير: كان هناك الكثير من الضجة حول النماذج الصغيرة التي يمكنها أن تتفوق على النماذج الكبيرة فكيف يمكن لنموذج صغير أن يحقق المزيد بمعايير أقل؟
هذا أحد أهم الأسئلة في مجال الذكاء الاصطناعي في الوقت الحالي. هناك الكثير من الطرق المختلفة التي يمكن أن يتحقق بها ذلك. وجد الباحثون أن كمية بيانات التدريب تحدث فرقاً كبيراً. إذ عليك أولاً التأكد من أن النموذج يرى بيانات كافية: فالنموذج الذي يجري تدريبه على عدد قليل جداً من النصوص لن يحقق أقصى استفادة من معاملاته جميعها، ويمكن لنموذج أصغر جرى تدريبه على الكمية نفسها من البيانات أن يتفوق عليه.
ثمة حيلة أخرى توصل إليها الباحثون وهي الإفراط في التدريب. إذ يبدو أن تزويد النماذج ببيانات أكثر بكثير مما كان يعتقد سابقاً أنه ضروري، يحسن أداءها. والنتيجة هي أنه يمكن لنموذج صغير مدرب على الكثير من البيانات أن يتفوق على نموذج أكبر مدرب على بيانات أقل. خذ على سبيل المثال نماذج لاما من شركة ميتا؛ فقد دربت الشركة النموذج لاما 2، الذي يضم 70 مليار معامل، على نحو 2 تريليون كلمة من النصوص؛ بينما دربت النموذج لاما 3، الذي يضم 8 مليارات معامل، على نحو 15 تريليون كلمة من النصوص. ويعد النموذج لاما 3 الأصغر بكثير هو النموذج الأفضل.
وثمة تقنية ثالثة، تعرف باسم "التقطير" (distillation)، تستخدم نموذجاً أكبر لتدريب نموذج أصغر. حيث يجري تدريب النموذج الأصغر ليس فقط على بيانات التدريب الأولية ولكن أيضاً على مخرجات العمليات الحسابية الداخلية للنموذج الأكبر. والفكرة مفادها هو أن الدروس المكتسبة بعناية والمرمزة في معاملات النموذج الأكبر تنتقل إلى معاملات النموذج الأصغر، ما يحسن أداءه كثيراً.
في الواقع، قد يكون زمن النماذج الأحادية المتجانسة قد ولى. فحتى أكبر النماذج الموجودة في السوق، مثل جي بي تي 5 من أوبن أيه آي وجيميناي 3 من جوجل ديب مايند، يمكن اعتبار كل منها مجموعة من النماذج الصغيرة المتكاملة. فباستخدام تقنية تسمى "مزيج من الخبراء" (mixture of experts)، يمكن للنماذج الكبيرة تشغيل الأجزاء الذاتية المحددة فقط (الخبراء) والتي تتطلبها معالجة جزء معين من النص. يجمع هذا الأسلوب بين قدرات النموذج الكبير وسرعة النموذج الصغير مع استهلاك قدر أقل من الطاقة.
لكن الأمر لا يتوقف عند هذا الحد. إذ لا يزال الباحثون يبحثون عن طرق لتحقيق أقصى استفادة من معاملات النموذج. ومع تضاؤل المكاسب الناتجة عن زيادة حجوم النماذج بصورة مباشرة، يبدو أن زيادة عدد المعاملات لم تعد تحدث الفرق الذي كانت تحدثه من قبل. فما هو مهم ليس عدد المعاملات، بل كيفية استخدامها.
اقرأ أيضاً: كيف تستفيد الشركات الصغيرة من الذكاء الاصطناعي دون إنفاق الكثير؟
هل يمكنني رؤية معامل؟
هل تريد رؤية أحد المعاملات؟ تفضل: إليك تمثيلاً مضمناً.
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124
0.0142 -0.0056 0.0321 -0.0189 0.0045 0.0278 -0.0412 0.0156 -0.0098 0.0223
-0.0334 0.0112 -0.0045 0.0456 -0.0212 0.0089 0.0332 -0.0145 0.0067 -0.0221
0.0443 -0.0112 0.0098 -0.0334 0.0121 -0.0554 0.0082 -0.0112 0.0441 -0.0212
0.0329 -0.0141 0.0075 -0.0561 0.0118 [0.0441 -0.0039 0.0452 -0.0119 0.0228
-0.0341 0.0272 -0.0128 0.0335 -0.0439 0.0127 0.0551 -0.0112 0.0039 0.0442
-0.0219 0.0081 -0.0119 0.0347 -0.0661 0.0128 -0.0559 0.0187 -0.0019 0.0448
0.0124 -0.0451 0.0089 -0.0213 0.0334 -0.0056 -0.0121 0.0456 -0.0282 0.0012
-0.0345 0.0221 -0.0098 -0.0543 0.0112 -0.0187 0.0271 -0.0123 0.0441 -0.0332
0.0091 -0.0556 0.0234 -0.0111 -0.0043 0.0272 -0.0198 0.0454 -0.0667 0.0121
-0.0331 0.0098 -0.0121 0.0443 -0.0181 0.0224 -0.0553 0.0119 -0.0337 0.0011
0.0542 -0.0181 0.0212 -0.0445 0.0173 -0.0124 0.0339 -0.0661 0.0014 0.0282
-0.0431 0.0118 0.0559 -0.0227 0.0371 -0.0112 0.0445 -0.0091 0.0332 -0.0541
0.0129 -0.0372 0.0441 -0.0113 0.0268 -0.0334 0.0221 -0.0556 0.0281 -0.0012
-0.0445 0.0124 -0.0331 0.0662 -0.0119 0.0447 -0.0284 0.0221 -0.0551 0.0332
0.0128 -0.0441 0.0382 -0.0119 0.0337 -0.0664 0.0228 -0.0551 0.0112 -0.0445
0.0772 -0.0331 0.0124 -0.0551 0.0442 -0.0119 0.0281 -0.0224 0.0337 -0.0661
0.0542 -0.0124 0.0281 -0.0445 0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337
0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445
0.0331 -0.0662 0.0221 -0.0551 0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119
0.0172 -0.0331 0.0551 -0.0124 0.0282 -0.0445 0.0331 -0.0662 0.0221 -0.0551
0.0112 -0.0337 0.0441 -0.0182 0.0224 -0.0119 0.0172 -0.0331 0.0551 -0.0124 ]