تُظهر الحكايات الشعبية وأفكار الفلاسفة القدامى أن البشر ظلوا طوال التاريخ مفتونين بفكرة خلق حياة اصطناعية، سواء من الحجر أو من الآلات، مع تزويدها بنوعٍ من الذكاء يمكّنها من مساعدة أو خدمة أو حماية حياة الإنسان. في الأساطير اليونانية مثلاً، يمكننا أن نرى طالوس (Talos)، العملاق المصنوع من البرونز، يتجول على شواطئ جزيرة كريت ليحميها من الغزاة. وفي الجزء الثاني من رواية جوته الشهيرة "فاوست" نقرأ عن "أنيسيان" (Homunculus) أو قزم مُخلق كيميائياً في قارورة، لكنه يموت عند محاولة التحول إلى جسم بشري كامل.
في العصر الحديث، نضج الذكاء الاصطناعي ليصبح علماً يتمتع بسمعة طيبة بفضل تطوير أجهزة حاسوب قوية، وفهم نظري أفضل لماهية الذكاء الاصطناعي وكيفية عمله، وتوافر كميات كبيرة من البيانات التي تساعد على تشغيله.
مستقبل لا يخلو من المخاوف
على الرغم من القدرات الواسعة التي تتمتع بها تكنولوجيا الذكاء الاصطناعي في وقتنا الحالي، بدءاً من القدرة على معالجة المعلومات، وتحديد الأنماط، وعمل التنبؤات، وصولاً إلى تشغيل الروبوتات والمركبات ذاتية القيادة، فإن مستقبل الذكاء الاصطناعي لا يخلو من المخاوف.
في السنوات الأخيرة، ظهرت معضلات أخلاقية ومعنوية نتيجة استخدام الذكاء الاصطناعي في التطبيقات الحديثة، وعلى وجه التحديد استخدامه في المجال العام، إضافة إلى تداعيات (غير مقصودة) لخوارزميات التعلم الآلي على رفاهية الإنسان وخياراته الاقتصادية.
لذلك، يرى كلٌّ من أستاذ السلوك التنظيمي والقيادة بكلية إدارة الأعمال الدولية هولت علي فينويك، والأستاذ بجامعة ويتينبورغ للعلوم التطبيقية جابور مولنار، أن إضفاء الطابع الإنساني على الذكاء الاصطناعي (Humanizing AI) أصبح ضرورياً ولا غنى عنه. وفي دراسة نشرها الباحثان في دورية ديسكفر أرتفشال إنتلجنس (Discover Artificial Intelligence)، استعرضا التحديات الرئيسية التي تواجه الذكاء الاصطناعي اليوم ومستقبلاً، وكيفية التصدي لها من خلال "نهج سلوكي" متعدد المستويات لتطوير الذكاء الاصطناعي وتطبيقه بطريقة أكثر إنسانية وإنصافاً.
يرى الباحثان أن أحد التحديات الحالية هو أن صانعي السياسات، الذين يفتقرون إلى المعرفة اللازمة في مجال الذكاء الاصطناعي، ليسوا دائماً على دراية بكيفية منع الاستخدام غير الأخلاقي أو اللاإنساني للتكنولوجيا، كما أنهم لا يريدون الحد من القدرة التنافسية الرقمية لبلدانهم بسبب سياسات ذكاء اصطناعي شديدة الصرامة.
اقرأ أيضاً: مستقبل الذكاء الاصطناعي: رؤية جديدة وجريئة يرسمها أحد كبار خبراء المجال
إطار سلوكي متعدد المستويات
يتمثل الحل في تطوير المزيد من المبادئ التي تتمحور حول الإنسان (والتي يشار إليها في الدراسة باسم "إضفاء الطابع الإنساني على الذكاء الاصطناعي") للتحكم في تقدم الذكاء الاصطناعي، بحيث تكون مبادئ يسهل فهمها من قِبل جميع أصحاب المصلحة وتفيد المجتمع.
يقصد الباحثان بمفهوم "إضفاء الطابع الإنساني على الذكاء الاصطناعي" إنشاء واستخدام ذكاء اصطناعي لا يفهم فقط المشاعر البشرية، وإنما يفهم أيضاً ديناميات اللاوعي البشري، ولديه القدرة على التفاعل مع البشر بطريقة طبيعية تشبه تفاعل البشر مع بعضهم بعضاً. ويعتقد الباحثان أن إضفاء الطابع البشري يجب أن يظهر على مستويات متعددة ومترابطة للمساعدة في سد الفجوات بين البشر والآلات.
لهذا الغرض، تضع الدراسة إطاراً من ثلاثة مستويات (جزئي ومتوسط وكلي) لكيفية إضفاء الطابع الإنساني على الذكاء الاصطناعي. وقد لجأ الباحثان في ذلك إلى اقتراحات مستمدة من مجال العلوم السلوكية، بهدف تعزيز التجارب البشرية، مشيرين إلى أن هذا الإطار لن يساعد في جعل الآلات الذكية أكثر كفاءة فحسب، بل سيجعل تطبيقها أخلاقياً بشكل أكبر وأكثر تركيزاً على الإنسان.
وفي النهاية، قدم فينويك ومولنار اقتراحات لواضعي السياسات والمؤسسات والمطورين حول كيفية تنفيذ هذا الإطار لإصلاح المشكلات الحالية في الذكاء الاصطناعي وإنشاء علاقة تعايش بين البشر والآلات.
اقرأ أيضاً: كيف يرسم الذكاء الاصطناعي والعلوم المتقدمة مستقبل دولة الإمارات؟
إضفاء الطابع الإنساني على الذكاء الاصطناعي من منظور الخوارزمية (المستوى الجزئي)
تذكر الدراسة أن تطوير ذكاء اصطناعي أكثر شبهاً بالبشر يبدأ على مستوى البرمجة. وعلى غرار المنظور الجزئي في العلوم السلوكية، يساعد فهم البرنامج (الدماغ) على فهم الأجهزة (السلوك).
ومع ذلك، ونظراً لأن حوسبة الذكاء الاصطناعي تصبح أكثر "تعقيداً"، فإن معرفة كيفية اتخاذ الآلات الذكية للقرارات تتزايد صعوبة. وبالتالي لتوجيه عملية تطوير الذكاء الاصطناعي بطريقة قابلة للتفسير ومسؤولة، يجب تطبيق أنواع مختلفة من الآليات (على المستوى الجزئي). يمكن لهذه الآليات ومنها مثلاً مسارات التدقيق (Audit Trails)، والقابلية للتفسير (Interpretability)، وخيارات التصميم الخوارزمي (Algorithmic Design Choices)، أن توجه عملية تطوير الذكاء الاصطناعي ونشره في المستقبل.
وهنا تشير الدراسة إلى مصطلح مهم هو التجسيم (Anthropomorphism)، والذي يعني "إسباغ الصفات والمشاعر والنوايا البشرية على كيانات غير بشرية مثل الحيوانات والأشياء". يرى بعض الباحثين أنه لكي يصبح الذكاء الاصطناعي أكثر اندماجاً في حياة الإنسان ولتعزيز الميزات البشرية، فإنه يجب أن يكون أكثر شبهاً بالإنسان، وبالتالي فإنه يحتاج إلى تمثيل السمات البشرية مثل قدرات التخاطب، واستخدام الاختصارات العقلية لاتخاذ القرارات، والقدرة على التعاطف، والتشبه بالبشر جسدياً. وتوضح الدراسة أنه تم استلهام ونمذجة وظائف وآليات الذكاء الاصطناعي الإدراكية من الدماغ البشري. على سبيل المثال، يعتمد تصميم الشبكات العصبونية الاصطناعية (ANNs) على طريقة معالجة العصبونات في الدماغ للمعلومات وتبادلها.
إضفاء الطابع الإنساني على الذكاء الاصطناعي من منظور تطبيقي (المستوى المتوسط)
ينظر الباحثان بعد ذلك في الأساليب المحتملة لإضفاء الطابع الإنساني على الذكاء الاصطناعي من منظور تطبيقي، حيث يتم التركيز على "الكيفية" أكثر من "الماهية". في البداية، تنبثق التكنولوجيا غالباً مدفوعة بهدف يتمحور حول الإنسان، مثل مساعدة الناس للبقاء على اتصال أو تسهيل المهام. ولكن مع مرور الوقت، يسيطر دافع الربح ويصبح المستخدمون هدفاً للاستغلال، خاصةً إذا كانت المعايير الاستثمارية مسؤولة عن مواصلة تطوير التطبيقات. ويظهر هذا التطور في تطبيقات استهلاكية مثل وسائل التواصل الاجتماعي، وتوصيل الطعام، وخدمات النقل التشاركي، التي تستخدم الخوارزميات لتعظيم هوامش الربح والتأثير على المستخدمين ومقدمي الخدمات.
وبالتالي، فإن جمع البيانات الشخصية واستخدامها يحتاج إلى التحكم فيه وتنظيمه بناءً على اعتبارات أخلاقية. ولتحقيق ذلك، يجب مراعاة معايير الرفاهية قبل المعايير الاستثمارية، وهو ما من شأنه أن يحدث تغييراً جذرياً في طريقة تطوير التطبيقات التي تقدم خدمات للشركات (B2B)، وتلك التي تقدم خدمات للمستهلكين (B2C).
ومن ضمن الآليات الأخرى التي يمكن استخدامها لضمان المزيد من التركيز على الإنسان والمساءلة والسلامة في التطبيق: مسارات التدقيق، وحوكمة الذكاء الاصطناعي المسؤول، وعمليات التحقق من تحيز البيانات.
اقرأ ايضاً: لأي درجة علينا قبول إسناد الخصائص البشرية إلى مساعد رقمي قائم على الذكاء الاصطناعي؟
إضفاء الطابع الإنساني على الذكاء الاصطناعي على المستوى المجتمعي (المستوى الكلي)
يناقش القسم الثالث والأخير من الإطار السلوكي الذي وضعه فينويك ومولنار بعض تطبيقات الذكاء الاصطناعي المحفوفة بالمخاطر، والتي تؤثر بشكل عميق على السلوك البشري والمجتمع ككل. وهنا يقدم المؤلفان ثلاثة أمثلة مجتمعية لتسليط الضوء على حاجة الذكاء الاصطناعي إلى مزيد من الاعتبارات البشرية عند نشره في المجتمع.
وفي هذه المقالة، نعرض مثالاً واحداً تمت الإشارة إليه في الدراسة وهو نظام الرصيد الاجتماعي (SCS) الذي طبّقته الصين في عام 2020، والذي يقيّم المواطنين بناءً على سلوكهم عبر الإنترنت وخارجه. باستخدام كاميرات مراقبة تعمل بالذكاء الاصطناعي، وتتبع المدفوعات من خلال أدوات مثل أليباي (Alipay) وغيرها من طرق الدفع الأخرى عبر الإنترنت المستخدمة في الصين، ومراقبة وسائل التواصل الاجتماعي. يمكن لنظام الرصيد الاجتماعي المركزي الصيني تقييم درجة المواطن وبالتالي توفير الموارد العامة أو تقييد الوصول إليها بناءً على كيفية تصرفه.
من منظور إضفاء الطابع الإنساني على الذكاء الاصطناعي، فإن هذا النهج مشكوك فيه لأنه يراقب السلوك ويُكره الناس عليه بطريقة مبهمة، ما يجعل من غير الواضح بالنسبة للمواطنين كيف يمكنهم التأثير في تقييماتهم.
أنظمة الرصيد الاجتماعي بشكل عام ليست جديدة، إذ تسمح المنصات الإلكترونية مثل أوبر (Uber) وإير بي إن بي (Airbnb) للعملاء ومقدمي الخدمات بتقييم التجربة التي مروا بها. وتُستخدم التقييمات التي يكتبها المستخدم كشكل من أشكال التحقق الاجتماعي. ومع ذلك، فإن تطبيق أنظمة التصنيف الاجتماعي فيما هو أبعد من التطبيقات الاستهلاكية يحتاج إلى المزيد من المراجعة.
استخدامات إيجابية للذكاء الاصطناعي
تسلّط الأمثلة المذكورة في الدراسة الضوء على القوة المحفزة لاستخدام الذكاء الاصطناعي على المستوى المجتمعي. ويرى الباحثان أن استخدام الذكاء الاصطناعي لهندسة السلوك اجتماعياً والتلاعب بقرارات التصويت والتفرقة بين الأشخاص على أساس القيم أو المعتقدات يؤثر سلباً على رفاهية الإنسان وعلى تعزيز التكافؤ.
اقرأ أيضاً: تكنولوجيا جديدة تعتمد على كريسبر والذكاء الاصطناعي لإجراء تعديلات جينية وتطوير علاجات مستقبلية
ومع ذلك، يرى الباحثان أن هناك سبلاً محتملة للنهوض بالبشر واستحداث استخدامات للذكاء الاصطناعي مرغوب فيها من الناحية المجتمعية، حيث يمكن لأنظمة الذكاء الاصطناعي تولي المهام المتكررة أو الخطرة، ما يسمح للبشر بالتركيز أكثر على تعزيز صفات مثل الإبداع والتواصل والإيثار والذكاء العاطفي. كما يمكن استخدام تكنولوجيا الذكاء الاصطناعي وغيرها من التكنولوجيات التمكينية للمساعدة في توفير وصول متكافئ إلى الموارد لتسهيل نمو الإنسان ورفاهيته.