باحثو الذكاء الاصطناعي يرغبون في دراسته بنفس أسلوب علماء الاجتماع في دراسة البشر

3 دقائق
مصدر الصورة: تسجيسي تالسما

كُتب الكثير عن الطبيعة الغامضة لأنظمة الذكاء الاصطناعي، التي يشار إليها بمصطلح: الصندوق الأسود، وكيف تتسبب لنا في الضيق لجهلنا في أغلب الأحيان بكيفية توصلها إلى قراراتها. ومع تعمق الخوارزميات في كل شيء يتعلق بنا، بدءاً بتفاعلاتنا الاجتماعية والثقافية وصولاً إلى المسائل الاقتصادية والسياسية، فقد حاول علماء الحاسوب الاستجابة للمطالبات المتزايدة بتوضيح أساليب عمل هذه الأنظمة عن طريق تطوير أساليب تكنولوجية لفهم سلوكياتها.

ولكن مجموعة من الباحثين الذين يعملون في الشركات والقطاع الأكاديمي يقولون إننا لسنا في حاجة إلى اختراق الصناديق السوداء حتى نفهم تأثيراتها على حياتنا ونتحكم فيها؛ حيث إنها في الواقع ليست المرة الأولى التي نتعامل فيها مع الصناديق السوداء. يقول نيك أوبرادوفيتش، الباحث في مختبر الوسائط في إم آي تي وأحد مؤلفي بحث جديد نُشر مؤخراً في مجلة Nature: "لقد طورنا الأساليب العلمية اللازمة لدراسة الصناديق السوداء على مدى مئات السنوات، غير أنها كانت حتى الآن تُطبق فقط على الكائنات الحية. ولكن يمكننا أن نستفيد من الكثير من هذه الأدوات لدراسة الصناديق السوداء الجديدة، أي: أنظمة الذكاء الاصطناعي".

ويقترح مؤلفو البحث -وهم عبارة عن مجموعة متنوعة من الباحثين من الشركات والمؤسسات الأكاديمية- تأسيس اختصاص أكاديمي جديد باسم "السلوك الآلي"، ويقوم على دراسة أنظمة الذكاء الاصطناعي بنفس الطريقة التي كنا نستخدمها لدراسة الحيوانات والبشر، أي: المراقبة التجريبية وإجراء الاختبارات.

ويمكن وفقاً لهذا التعريف أن نقول إننا إذا شبهنا عالِم الحاسوب بعالِم الأعصاب، فإن أخصائي السلوك الآلي يقابل أخصائي علم الاجتماع؛ حيث إن الثاني يسعى إلى فهم سلوك الكيان -سواء أكان اصطناعياً أو بيولوجياً- في موطنه، وعندما يكون جزءاً من مجموعة، وعندما يتفاعل مع كيانات ذكية أخرى، في حين أن الأول يسعى إلى تفصيل آليات اتخاذ القرارات الكامنة خلف هذه السلوكيات. يقول إياد رهوان -وهو باحث آخر في مختبر الوسائط والمؤلف الرئيسي للبحث- في منشور بالمدونة مرفق بالبحث: "نحن نشهد صعود الآلات ذات الكيان المستقل، التي تتخذ القرارات وتنفذ الأفعال بشكل آلي". ولهذا يجب أن تُدرس على أنها "فئة جديدة من الكيانات الفاعلة التي تتمتع بخصوصية في أنماطها السلوكية وأنظمتها البيئية".

وهذا لا يعني بطبيعة الحال أن أنظمة الذكاء الاصطناعي توصلت بطريقة ما إلى أن تتمتع بنوع من الوعي أو الإرادة الحرة، فهي ليست سوى نماذج رياضية شديدة التعقيد. ولكن هذه المقاربة تعني التوقف عن النظر إليها على أنها مجرد أدوات سلبية يمكن تقييمها فقط من خلال هيكليتها التكنولوجية وأدائها وقدراتها، بل يجب أن نعتبرها كيانات فاعلة قادرة على تغيير ما يحيط بها من بيئات وأشخاص وآلات والتأثير فيه.

إذن، ما ملامح هذا الاختصاص الجديد؟ قد يسعى أخصائي السلوك الآلي -مثلاً- إلى دراسة أثر المساعدات الصوتية على تطور شخصية الطفل، أو قد يدرس كيفية تأثير خوارزميات التوصيات العاطفية على طريقة التقاء الأشخاص وارتباطهم بعلاقات عاطفية. وبشكل عام، سيدرس الخصائص الناشئة عن التجاور والتفاعل بين أعداد كبيرة من البشر والآلات. يقول أوبرادوفيتش: "نحن عبارة عن نظام عملاق واحد مؤلف من البشر والآلات. ويجب أن نعترف بهذا الأمر، ونُجري دراساتنا على هذا الأساس".

ومن المهم أن نشير إلى أن معظم هذه الأفكار ليست جديدة. وعلى سبيل المثال، فقد كانت التفاعلات بين البشر والآلات أحد مواضيع علوم الروبوتات منذ زمن طويل، كما أن مجالات العلوم والتكنولوجيا والاجتماع يوجد فيها ما يعرف باسم "نظرية الكيان الفاعل - الشبكة"، وهي هيكلية لوصف كل شيء في العالم الطبيعي والاجتماعي -كالبشر والآلات- ككيانات تتعلق ببعضها بطريقة أو أخرى. ولكن في معظم الأحيان، كانت هذه الأساليب عبارة عن جهود معزولة في اختصاصات متمايزة، غير أن جمعها معاً تحت مظلة اختصاص واحد قد يوافق ما بين أهدافها، ويؤدي إلى ظهور لغة مشتركة فيما بينها، ويدعم التعاون بين الاختصاصات المختلفة، كما يقول أوبرادوفيتش: "سيساعدنا هذا في العثور على بعضنا البعض".

ويجب على باحث السلوك الآلي أن يعمل جنباً إلى جنب مع باحث الذكاء الاصطناعي، على الرغم من تمايز الاختصاصين. فمع اكتشاف الأول لسلوكيات جديدة لأنظمة الذكاء الاصطناعي وتأثيرات جديدة لها على البشر، يمكن أن يعتمد الثاني على هذه المعلومات في وضع تصميمات جديدة للأنظمة. وكلما استفاد الاختصاصان من تبادل المعلومات فيما بينهما، أصبح بالإمكان زيادة فوائد أنظمة الذكاء الاصطناعي والتقليل من أضرارها.

يقول أوبرادوفيتش: "نحن في حاجة إلى خبرات العلماء من كافة الاختصاصات السلوكية والحاسوبية، حيث إن دراسة كيفية العيش جنباً إلى جنب مع الآلات مسألةٌ أكبر من أي اختصاص منفرد".

المحتوى محمي