ذكاء واع أو وهمي: ماذا يعلمنا لامدا حول التصرف البشري عند التفاعل مع الذكاء الاصطناعي؟

12 دقيقة
ذكاء واع أو وهمي: ماذا يعلمنا لامدا حول التصرف البشري عند التفاعل مع الذكاء الاصطناعي؟
حقوق الصورة: shutterstock.com/ Andrey Suslov

ذكر مقال نُشر مؤخراً في صحيفة "واشنطن بوست" (Washington Post) أن بلايك ليموين، وهو مهندس بعمر 41 سنة في "جوجل" (Google)، قد تعرض للإيقاف عن العمل بسبب مذكرة داخلية كتبها وتتضمن نصاً لمقابلة جرت بينه وبين بوت الدردشة المثير للجدل الذي صممته الشركة، والذي يحمل اسم "لامدا" (LaMDA)، حيث زعم في هذه المذكرة أن هذا الذكاء الاصطناعي قد يكون عاقلاً. اجتذب المقال اهتمام وسائل الإعلام، وفي الوقت الحالي، يبدو أن الكثيرين من مستخدمي الإنترنت يتقبلون فكرة وجود ذكاء اصطناعي واعٍ. ولكن، كيف نجزم حقاً بأن لامدا واعٍ بالفعل؟ وهل هناك وسيلة موضوعية لقياس هذا الأمر؟ وهل من المحتمل أن اعتقاد ليموين بأنه صمم نظام ذكاء اصطناعي يتمتع بالعقل ليس سوى محض خيال يُعزى إلى القدرات الهائلة لهذا البوت في التواصل بشكل يضاهي البشر؟ في هذه المقالة، سندرس هذه الأفكار ونناقش ما يمكن أن ينتج عن لامدا. ولن نقتصر على الناحية الفنية، بل سنناقش أيضاً النواحي النفسية والأخلاقية وحالات استخدام لامدا. 

اقرأ أيضاً: كيف قرر مهندس في جوجل أن نظام الذكاء الاصطناعي لديها أصبح واعياً؟ ولماذا أوقفته الشركة؟

ما هو لامدا؟

لامدا (LaMDA) اختصار بالإنجليزية لعبارة "نموذج لغوي لتطبيقات الحوار" (Language Model for Dialogue Applications)، وهو بوت دردشة بتصميم مثير للجدل وما زال قيد التطوير تم تطويره في قسم الذكاء الاصطناعي في جوجل. يعتمد بوت الدردشة هذا على أحدث نماذج معالجة اللغات الطبيعية (NLP) لمحاكاة الحوار البشري بطريقة ذكية. وقد بُني لامدا باستخدام الشبكات العصبونية الاصطناعية (ANN)، وهي شكل من أشكال الذكاء الاصطناعي الذي يعتمد على محاكاة طريقة عمل الدماغ. وحتى يشارك لامدا في الحوار بطريقة تحاكي البشر، يجب تدريبه على مجموعة منوعة من المصادر النصية (والتي يصل عددها إلى الملايين في أغلب الأحيان) حتى يستطيع محاكاة الحوار البشري. وتساعد الخوارزميات المتقدمة لتحليل النص لامدا على الحوار، بل وأيضاً على فهم الكلمات ضمن سياقها، وتحديد الدلالات ضمن الحوارات المعقدة، وتوقع الكلمات التي يمكن أن ترد تالياً في جملة ما. وعلى سبيل المثال، وعند كتابة جملة في برنامج جوجل دوكس، تستطيع جوجل توقع الكلمات التالية. ويبين مثال لامدا المستوى المرتفع الذي وصلت إليه خوارزميات الذكاء الاصطناعي في محاكاة الحوار البشري، بل وحتى التفكير، ولا يمكن سوى أن نتخيل كيف يمكن استخدام هذه التكنولوجيا في حياتنا اليومية.

اقرأ أيضاً: معهد الابتكار التكنولوجي يطلق “نور”: نموذج الذكاء الاصطناعي القادر على معالجة اللغة العربية

ولكن، إلى أي درجة يختلف لامدا عن بوتات الدردشة الأخرى؟ في الواقع، إن بوتات الدردشة الشائعة تم تدريبها بشكل أساسي على مجموعة من الأسئلة والأجوبة. وهذه البوتات المخصصة للأسئلة والأجوبة محدودة من حيث قدرتها على الحوار ضمن سياق ضيق، ما يعني أن حواراتها مبنية بطريقة محددة مسبقاً وقابلة للتنبؤ. ويمكن أن نأخذ كمثال عليها بوت الدردشة المستخدم كمساعد رقمي في شركة "فيرايزون" (Verizon). تم بناء بوت الدردشة الخاص بفيرايزون وتدريبه على أسئلة العملاء الأكثر تكراراً. وعادة ما تتعلق أغلبية هذه الأسئلة بمنتجات فيرايزون، والأسئلة حول المنتجات الجديدة، والإلغاءات، والمشكلات الفنية. وبالتالي، فإن سؤال العميل سيكون متعلقاً بأحد هذه المواضيع باحتمال كبير للغاية. أما الذكاء في بوت الدردشة فهو أن توجيه المزيد من أنواع الأسئلة المختلفة سيدفع ببوت الدردشة إلى زيادة مخزونه من الإجابات وتحسين احتمال إجابته عن أسئلة مماثلة في المستقبل. وفي هذه الحالة، فإن الذكاء محصور بالتذكر والتنبؤ. ولكن، وفي معظم الأحيان، وكما في حالة بوت الدردشة لدى فيرايزون، فإن قدرة بوتات الدردشة محدودة وتقتصر على محاكاة الحوار البشري. ويمكن بسهولة تمييز طبيعتها كبوتات دردشة. كما أنها محدودة من حيث نطاق الحوار. أما لامدا فهو أكثر تطوراً من هذه الناحية، فقد تم تدريبه على إجراء الحوار بناء على نطاق واسع من المواضيع، كما يستطيع اقتراح الأسئلة أو العثور على أجوبة عن الأسئلة معتمداً على عدة مصادر نصية. وليس من المفاجئ أن لامدا يستطيع الإجابة عن أسئلتك من عدة وجهات نظر مختلفة، ما يضفي عليه طابعاً من الواقعية والذكاء، بل وربما حتى الوعي (انظر الصورة أدناه).

ما هو لامدا؟

التمييز بين البشر والآلات

عندما نفكر في أن الآلات تصبح أكثر شبهاً بالبشر، فنحن نفترض تلقائياً أن الآلة تمتلك درجة ما من الذكاء. هل تستطيع الآلة أن تفكر بنفسها، وأن تفهم ما يجري حولها، وأن تستخدم التفكير المنطقي، وتتخذ قرارات واعية ومدروسة؟ هناك عدة مستويات مختلفة من القدرات الإدراكية التي أصبحت معياراً للمقارنة في سعينا العالمي لبناء آلات ذكية. وقد نشرت الباحثة كاتيا غريس مع مجموعة من زملائها مقالة في 2018 بعنوان: "متى سيتخطى الذكاء الاصطناعي الأداء البشري؟ أدلة من خبراء الذكاء الاصطناعي"، وتتوقع هذه المقالة أن الذكاء الاصطناعي من المستوى البشري، المعروف اختصاراً بكلمة "HLMI"، قد يصبح حقيقة واقعة باحتمال 50% خلال 45 سنة، وباحتمال 10% خلال 9 سنوات. ولكن، هناك فرق بين "الكيان الشبيه بالبشر" و"الكيان البشري". فالكيان البشري يتطلب ما يفوق مجرد ذكاء وحسب. فقد يكون غير عقلاني أيضاً، ويسمح للعواطف بالتحكم به، ويعبر عن الثقة والتعاطف، كما يمتلك الوعي. وهو شيء لم تستطع الآلات فعله حتى الآن، وقد لا تتمكن من ذلك على الإطلاق. وفي أحسن الأحوال، تستطيع الآلات محاكاة الخصائص البشرية، بحيث توحي بوهم امتلاكها لقدرات الذكاء البشري. وهنا، يقدم لامدا أداء رائعاً! إن التمييز بين الميزات الخاصة بالبشر وغيرها أمر مهم، حيث يؤثر على كيفية استمرارنا في فهم الذكاء الاصطناعي وبنائه وتطبيقه والتعامل معه. وأيضاً، لأننا كبشر قابلون للخداع بسهولة بسبب محدودية قدراتنا الإدراكية.

اقرأ أيضاً: بوتات الدردشة تملأ الفراغ الذي يتسبب به وباء كورونا‎ في مراكز الاتصالات

أنسَنة الذكاء الاصطناعي: أهو لعب بالنار أم الحل لبناء علاقة تكافلية مع الذكاء الاصطناعي؟

إن تصريح ليموين القائل بأن بوت الدردشة الخاص بجوجل قد يكون عاقلاً هو شهادة على تحيز إدراكي، أو ببساطة، تصريح متسرع. ونحن نعتقد أن قدرات لامدا الحوارية الحالية جيدة بما يكفي لخداع البشر ودفعهم إلى الاعتقاد بأنه عاقل. إن معرفة القليل عن الذكاء الاصطناعي وقدراته يمكن أن تؤثر بشدة على استيعاب البشر وأفكارهم ومعتقداتهم. ومن أكبر المواضيع المثيرة للجدل في أدبيات الذكاء الاصطناعي والتعلم الآلي هي الدرجة التي يجب أن يحققها الذكاء الاصطناعي من حيث التشابه مع البشر في الشكل والإحساس والصوت. ويؤيد البعض هذه الفكرة، على حين يرفضها البعض الآخر. وفيما يلي ملخص موجز للحوار الحالي.

فمنذ بضع سنوات، كان الكثير من الباحثين يحذرون من أن أنسَنة الذكاء الاصطناعي يمكن أن تخدع البشر وتدفعهم إلى تصديق ما تقوله الآلات أو تجعل البشر يعتقدون بوجود صلة عاطفية حقيقية لديها. ويميل البشر إلى التحيز نحو الآلات إذا كانت تشبه البشر من حيث المظهر أو قدرات الكلام أو التعبير عن العواطف. ولكن، وبصراحة، فإن الخوارزميات ليست بشراً، وهي تمثل في جوهرها نماذج إحصائية. وإضافة إلى أنسنة الذكاء الاصطناعي، فقد أثارت عملية تشكيل حياة اصطناعية اهتمام البشر منذ عصور سحيقة. وقد عبرت الأعمال الأدبية والخيالية المعاصرة بشكل أدبي عن فكرة إمكانية بناء حياة اصطناعية، أو إمكانية وقوع الروبوتات في الحب، أو اكتسابها للوعي. وتمثل بعض الأعمال الفنية ذائعة الصيت، مثل "Frankenstein" و"Terminator" و"The Matrix" و"WALL-E" دليلاً على هذه الاعتقادات، كما أنها تساهم في "رغبتنا بالإيمان" بقدرتنا على بناء ذكاء اصطناعي عاقل وواعٍ. علاوة على ذلك، 

اقرأ أيضاً: أحد الفائزين بجائزة مليون مبرمج عربي: ما هي اللغة التي سيتخاطب بها البشر مع الروبوتات في المستقبل؟

فليس من المستغرب أنه سيكون هناك بعض البشر ممن يفضلون التفاعل مع الذكاء الاصطناعي على التفاعل مع البشر لهذه الأسباب، أو بسبب السخط على البشرية بشكل عام. ولكن التفكير في الذكاء الاصطناعي على أنه "بشري" يمنح الآلات درجة من الوصاية على البشر، على حين أن وهم هذه الوصاية خاطئ ولا يستند إلى أي دليل. 

أما على الطرف الآخر من جدل أنسنة الذكاء الاصطناعي، يقول الباحثون ورجال الأعمال إن زيادة اندماج الذكاء الاصطناعي في المجتمع تتطلب اكتسابه بعض الصفات البشرية. ولكن هناك حالياً الكثير من أنظمة الذكاء الاصطناعي المحدودة، والتي تعكس المهام البسيطة والمتكررة التي تقوم بها الآلات، وهي ليست تمثيلاً حقيقياً للذكاء البشري. ولبناء نظام ذكاء اصطناعي عالي القدرة، أو أكثر عمومية، اقترح البعض إدماج التحيزات البشرية أو الاختصارات المبنية على علم اتخاذ القرار ضمن نماذج الذكاء الاصطناعي الحالية. وتقول الفكرة إن تزويد الآلات بقدرات تفكير تحمل بعض الخصائص البشرية يمكن أن يؤدي إلى انتشار هذه التكنولوجيا بسرعة أكبر. ومن الحجج الأخرى الداعمة لأنسنة الذكاء الاصطناعي وجود العديد من الأمثلة المسيئة حول كيفية استخدام الذكاء الاصطناعي حالياً في القطاعين العام والخاص. ففي السنوات الماضية، ظهرت الكثير من الأمثلة حول استخدام الذكاء الاصطناعي على البشر لتحقيق الربح المادي. فقد تعمدت منصات التواصل الاجتماعي، مثل "فيسبوك" (Facebook)، استخدام الخوارزميات لاستغلال مخاوف الناس وتحيزاتهم العقلية وغيرها من القيود الإدراكية لزيادة تفاعل الناس والحصول على المزيد من أرباح الإعلانات. ناهيك عن الآثار طويلة الأمد لاستخدام وسائل التواصل الاجتماعي على صحة الناس وسلوكهم العام. ولهذا السبب، يقول الكثير من الباحثين إن أنسنة الذكاء الاصطناعي أمر مهم لمنع هذه الممارسات المسيئة في استخدام الذكاء الاصطناعي. إن بناء ذكاء اصطناعي يعتمد على المزيد من المقاربات التي تتمحور حول البشر وتعتمد على قيمهم ضمن عمليات التشغيل والتطبيق للأنظمة الذكية قد يكون أمراً أساسياً لبناء أنظمة ذكاء اصطناعي أكثر أخلاقية ومسؤولية وبناء علاقة أكثر تكافلية بين البشر والآلات. 

الأنواع المختلفة للذكاء

إذا كان الوعي مرتبطاً بدرجة أعلى من الذكاء، فإن بناء "آلات خارقة الذكاء" سيقربنا أكثر من بناء الذكاء الاصطناعي الواعي. إذن، ما هي الآلات خارقة الذكاء وكيف تختلف عن الذكاء الاصطناعي الحالي؟ تعبر الآلات خارقة الذكاء عن أنظمة ذكاء اصطناعي قادرة على تجاوز القدرات الإدراكية البشرية في "جميع المجالات المهمة تقريباً"، كما يقول البروفسور في جامعة أكسفورد نِك بوستروم. أي أنها مختلفة عن أنظمة الذكاء الاصطناعي عالية القدرات أو الذكاء العابر للمجالات. وفي هذا القسم، سنناقش بإيجاز كيف يتخذ الذكاء الاصطناعي قرارات "ذكية" وكيف يختلف عن التفكير البشري.

اقرأ أيضاً: هل اقتربنا من تطوير أنظمة الذكاء الاصطناعي العام التي تتمتع بقدرات البشر؟

قدرات الذكاء الاصطناعي الحالية

كما ذكرنا سابقاً، فإن الذكاء الاصطناعي الحالي يمثل أنظمة الذكاء الاصطناعي المحدودة (أو الذكاء الاصطناعي ضعيف القدرات، كما يُشار إليها غالباً) والتي تركز على الأتمتة أو توقع نتيجة محددة في مجال محدد. ويعتمد الذكاء الاصطناعي ضعيف القدرات على عدة أنواع من البيانات والنماذج الإحصائية للقيام بعملية التنبؤ. ومن الأمثلة على الاستخدامات الحالية للذكاء الاصطناعي توقع تقلبات أسعار الأسهم أو كشف وجود كلب في صورة ما. يتم تدريب نماذج الذكاء الاصطناعي باستخدام البيانات التي يوفرها البشر. ويتم بعد ذلك تحويل بيانات الدخل والتنبؤات إلى قيم رقمية. وخلال عملية التدريب، يتعلم نموذج الذكاء الاصطناعي من هذه "الأمثلة"، بشكل مماثل لتعلم البشر من التجربة. ومع كل توقع، يتعلم الذكاء الاصطناعي ما يجب فعله وما لا يجب فعله في المرة المقبلة. وفي حالة بوتات الدردشة، فإن الهدف تقديم أفضل إجابة ممكنة (أي الإجابة الصحيحة أو الإجابة المناسبة) بناء على نموذج إحصائي.

اقرأ أيضاً: هل يشكل الذكاء الاصطناعي تهديداً لوظائف البشر؟

مقارنة بين فهم البشر وفهم الآلات

يستطيع البشر قراءة النصوص وفهم معاني الكلمات والجمل في أي نطاق محدد. وبالتالي، فإن الفهم البشري يعتمد على السياق ويتسم بالديناميكية والتعقيد. وتتطور اللغة عبر الأجيال، وتعتمد على الثقافة، وتتغير وفق الحالة الذهنية والعمر، كما أنها عرضة للخطأ. حتى أن البشر يواجهون في بعض الأحيان صعوبة في التفاهم بين بعضهم بعضاً، ناهيك عن محاولة آلة لفهم كلام بشري ضمن سياق معين. وعلى النقيض من ذلك، تستطيع بوتات الدردشة اليوم أن تفهم الدلالات وتحدد العلاقات بين الكلمات والجمل بما يحاكي القدرات البشرية. أما الفرق الوحيد فهو أن بوتات الدردشة ليس لديها القدرة على فهم المعنى بشكل تام مثل البشر، بل إن قدرتها أقرب إلى استنتاج العلاقات والاقترانات (بناء على المسافة المقيسة رقمياً) بين الكلمات، أو استنتاج احتمال ظهورها في جملة أو نص أكبر (احتمالات رياضية). وعلى سبيل المثال، فإن جملة "The Professor Is Sick" يمكن أن تحمل معنيين مختلفين. المعنى الأول والواضح هو أن البروفيسور ليس على ما يرام. ولكن، إذا قيلت هذه الجملة ضمن مجموعة من الشباب بعد محاضرة مشوقة، فقد تعني في الواقع أن هذا البروفيسور رائع. وعلى الرغم من أن الذكاء الاصطناعي العصري قادر على التقاط هذه الفروقات، فإنه ما زال بعيداً للغاية عن فهم المعنى بمستوى البشر. 

إذن، أي نوع من الذكاء الاصطناعي يعتمد عليه لامدا؟ يُعتبر لامدا مثالاً على الذكاء الاصطناعي المحدود الذي يعتمد على خوارزمية متطورة لمعالجة اللغات الطبيعية، والذي تم تدريبه على مجموعة متنوعة من مجموعات البيانات وغيرها من المصادر. ويتميز بمستوى ممتاز من الهيكلية البنيوية والتدريب إلى درجة تمكن من خداع أحد المطورين ودفعه إلى الاعتقاد بأن النظام الذي ساهم بنفسه في تصميمه قادر على فعل أكثر مما تمت برمجته لأجله. ومع مزيد من التدريب والتحسين في أساليب التعلم والتفكير الحاسوبيَين، يمكن للامدا وغيره من بوتات الدردشة الوصول إلى مستوى عالٍ في فهم القراءة وبمهارة تضاهي البشر، إن لم تكن أفضل منهم. ولكن هذه الحقيقة تبدو مستبعدة، بل وربما مستحيلة. 

اقرأ أيضاً: هل الحواسيب الخارقة التي تحاكي الدماغ البشري خرافة؟

هل هناك اختبار يمكن اللجوء إليه لتقييم ما إذا كان الذكاء الاصطناعي واعياً أم لا؟

تثير قصة لامدا سؤالين مهمين أيضاً: كيف يمكن أن نقيم ما إذا كانت الآلة واعية أو عاقلة؟ حتى نتمكن من إجراء هذا التقييم بصورة صحيحة، يجب أن تكون هناك وسيلة لإجراء هذا التقييم في الأساس. في 1950، قام آلان تورينغ بتطوير اختبار تورينغ لتقييم ما إذا كانت الآلات "تعبر" عن سلوك ذكي. فإذا لم يستطع مشرف الاختبار البشري أن يحدد ما إذا كان نص الحوار المؤتمت الذي يجريه هو من تأليف آلة أو شخص، تُعتبر الآلة ناجحة في الاختبار، ومعبرة عن سلوك ذكي. وإذا طبقنا اختبار تورينغ على لامدا، فسوف يحقق نجاحاً مبهراً فيه. ولكن اختبار تورينغ لا يختبر وجود الوعي، بل يختبر قدرة الحاسوب على "التفكير" (وفقاً لتوصيف آلان تورينغ في بحثه "الآلات الحاسوبية والذكاء" (Computing Machinery and Intelligence)). 

وفي هذا البحث، تم استخدام كلمتي الوعي والشعور للتعبير عن نفس المعنى، ومع أنهما مفهومان غير منفصلين تماماً، إلا أنهما أمران مختلفان. ولتطوير اختبار لهذا المستوى من الذكاء، نحتاج أولاً إلى معرفة الفرق بين المفهومين. فالوعي يعكس مستوى عالياً من الإدراك للحالة الخارجية والداخلية، والتي لا تقتصر فقط على التجارب الموضوعية، بل تشمل أيضاً الإدراك للوجود، والنوايا، والقدرة على التفكير. ويعكس الشعور درجة من الإدراك، ولكنه يتضمن أيضاً القدرة على الإحساس بالعواطف والمشاعر. فوصف تجربة ما بأنها مؤلمة أو مفرحة يعبر عن الشعور. وهو ما يعني أن جميع الكائنات العاقلة الحساسة هي كائنات واعية، ولكن العكس غير صحيح. إن تطوير اختبار لتقييم الوعي أو الشعور في أنظمة الذكاء الاصطناعي أكثر تعقيداً من تحديد ما إذا كانت الآلة قادرة على الإحساس أم لا. وبما أن لامدا، خلال مقابلته مع ليموين، عبر عن امتلاكه للإدراك الذاتي والمشاعر، فإن هذا يتطلب تقييماً أكثر عمقاً لمستويات أعلى من الذكاء في الآلات، وهو ما يتجاوز مجرد تشكيل جمل لمحاكاة الذكاء البشري. 

اقرأ أيضاً: أحد معاهد أبحاث الذكاء الاصطناعي: ينبغي حظر تكنولوجيا التعرف على المشاعر

حالات الاستخدام الممكنة للامدا

بما أن لامدا ما زال قيد التطوير، فإن حالات الاستخدام الفعلية غير موجودة. ولكن الفرصة التي يقدمها لنا لامدا كبيرة للغاية من وجهة نظرنا، كما أن تطبيقاته واسعة النطاق. ويمكننا أن نتوقع أن تقوم جوجل بتطبيق لامدا في منتجاتها وخدماتها الموجودة من قبل، مثل مساعد جوجل ومحرك البحث جوجل وجوجل هوم. ويمكن أن نتخيل التحدث مع مساعد جوجل الرقمي للمساعدة على التخطيط للعطلة بطريقة تفاعلية ومشوقة. ويمكن إجراء حوار مع مساعد جوجل للعثور على المكان المثالي للزيارة في الرحلة المقبلة. ولن يزيد هذا من سهولة عملية التخطيط وحسب، بل سيجعلها مشوقة للغاية. وإضافة إلى منتجات وخدمات جوجل، فإن تطبيقات لامدا في العالم الحقيقي كثيرة. إن التعامل مع جميع الاحتمالات يتجاوز نطاق هذا المقال، ولكننا نرغب في التحدث عن بعض حالات الاستخدام التي نعتقد أنها ستستفيد بدرجة كبيرة من هذه التكنولوجيا.

أولاً، لنناقش فرصة استخدام لامدا في مجال الأعمال. تمثل بوتات الدردشة طريقة فعالة للشركات لإدارة استعلامات العملاء على نطاق واسع. ووفقاً لمجلة "تشات بوتس ماغازين" (Chatbots Magazine) فإنه "يمكن للشركات باستخدام بوتات الدردشة الحوارية أن تخفف من التكاليف بنسبة تصل إلى 30%". لا تقتصر قدرات لامدا الحوارية المتطورة على التعامل مع الاستعلامات من نمط الأسئلة والأجوبة وحسب، بل تستطيع التعامل بفعالية أعلى مع شكاوى العملاء أيضاً، بل وحتى تستطيع زيادة المبيعات للعملاء الحاليين. ويستطيع لامدا مساعدة المؤسسات على أتمتة التفاعل مع العملاء على كل المستويات، ما يعطي مصطلح "تجربة العميل" معنى جديداً بالكامل.

اقرأ أيضاً: كيف تستفيد العلامات التجارية من المؤثرين الافتراضيين في التسويق؟

ومن وجهة نظر غير تجارية، يمكننا أن نرى بسهولة إمكانية استخدام لامدا لمعالجة مشكلات الصحة النفسية، مثل الشعور بالوحدة والتوتر. ويستطيع بوت الدردشة العملي أن يساعدك على حل مشكلاتك أو شراء منتج ما، ولكن بوت الدردشة الذي يتمتع بالقدرة على التعاطف يستطيع مساعدتك على التعامل مع أوضاع أكثر صعوبة، بل ويمكنه حتى أن يصبح صديقاً رقمياً. وفي الفيلم "Her"، يطور الممثل الرئيسي صلة عاطفية مع مساعدة افتراضية تعتمد على الذكاء الاصطناعي، والتي تساعده على التعامل مع طلاقه وحالة الاكتئاب لديه. ويبدو أن هذا لم يعد بعيداً عن الواقع. فوفقاً لتقرير يعود إلى العام 2001 لمنظمة الصحة العالمية، سيتعرض واحد من كل أربعة أشخاص إلى مشكلات نفسية في مرحلة ما من حياتهم. ويمكن لبوتات الدردشة الشبيهة بلامدا أن تساعد الناس على نطاق واسع وبطريقة خاصة بكل شخص، ما يمكن أن يخفف وقت الانتظار وتكاليف التشغيل، ويسهل تلبية الاحتياجات المتزايدة للدعم في مجال الصحة النفسية. 

لامدا: أهمية تحديد مبدأ الشفافية في بناء الذكاء الاصطناعي الأخلاقي والمسؤول

ومن وجهة نظر أخلاقية، نعتقد أن لامدا ينطوي على بعض التحديات المثيرة للاهتمام. ونرغب هنا بالتركيز بشكل أساسي على الشفافة كمبدأ جوهري، والذي تتفق الكثير من بلدان العالم على أنه مهم لتطوير ذكاء اصطناعي أخلاقي ومسؤول. تعني الشفافية في الذكاء الاصطناعي أشياء مختلفة من وجهة نظر أخلاقية. فأولاً، تعكس الشفافية أهمية فهم كيفية اتخاذ الذكاء الاصطناعي للقرارات. تعمل أنظمة الذكاء الاصطناعي العصرية بهيكليات بنيوية تزيد من صعوبة فهم كيفية اتخاذها للقرارات، ما يجعل عملية تتبع هذه القرارات صعبة. فإذا قام نظام ذكاء اصطناعي برفض طلبك للتوظيف، فمن حقك أن تعرف السبب وتعرف كيفية اتخاذ هذا القرار. وفي حالة لامدا، يجب أن يعرف الناس كيف يستطيع هذا النظام أن يتواصل بهذه السلاسة عبر العديد من المواضيع والمجالات. ثانياً، يجب أن يعرف البشر أنهم يتواصلون مع نظام ذكاء اصطناعي. وكما رأينا في حالة ليموين، فقد يكون هذا أمراً صعباً، نظراً لقدرة لامدا الحوارية المتقدمة. ولكن، هناك شيء مثير للاهتمام حول هذه الناحية من الشفافية بالتحديد. فقد تكون هناك أوضاع ليس من المرغوب فيها أن يعرف الإنسان أنه يتعامل مع نظام ذكاء اصطناعي. وفي بعض حالات الاستخدام، مثل الحالات المذكورة أعلاه والمتعلقة بعلاج الصحة النفسية، يمكن أن يستفيد البشر من تطوير صلة عقلية أو عاطفية مع نظام ذكاء اصطناعي (أو الاعتقاد بأن هذا النظام حقيقي) إذا كان قادراً على تقديم فوائد صحية. غالباً ما تفتقر الإرشادات المتعلقة بأنظمة الذكاء الاصطناعي إلى هذه التفاصيل، ما يزيد من صعوبة بناء أنظمة الذكاء الاصطناعي وبيعها لهذه الأغراض. 

اقرأ أيضاً: هل تمكن أحد أنظمة الذكاء الاصطناعي من تطوير لغة سرية فعلاً؟

استنتاجات

سواء أكان لامدا واعياً أم لا، فإن ظهوره قد يؤثر على حياتنا بالكثير من الطرق المختلفة. فأولاً، سيدفعنا لامدا إلى زيادة الطابع النقدي لتفكيرنا بدرجة الذكاء الفعلية للآلات الذكية. وثانياً، سيدفعنا إلى البحث عن أساليب جديدة لتقييم الأنواع المختلفة من الذكاء الآلي. وثالثاً، فقد أثبت لنا مدى سهولة خداع البشر ودفعهم إلى الاعتقاد بأن أنظمة الذكاء الاصطناعي يمكن أن تكون واعية بناء على طريقة تواصلها. ورابعاً، فسوف يدفعنا أيضاً إلى التفكير بنوع العلاقة التي نريد بناءها مع الآلات الذكية، وكيف يمكن تسهيل هذه العلاقات عن طريق الشركات والحكومة. وأخيراً، فإن هذه الحالة ستدفعنا إلى التفكير في معنى أن نكون بشراً، وما يميزنا عن الآلات.

المحتوى محمي