إطار كير CARE: نحو ذكاء اصطناعي يعزز العلاقات والحوكمة المسؤولة

6 دقيقة
إطار كير CARE: نحو ذكاء اصطناعي يعزز العلاقات والحوكمة المسؤولة
حقوق الصورة: Shutterstock.com/Gumbariya

عندما لا يتحدث أحد إلى الآخر

المفارقة الكامنة: تتعلم أنظمة الذكاء الاصطناعي التحدث إلينا، لكن قطاعاتنا لا تتحدث بعضها إلى بعض.

  • يحسن مصممو التكنولوجيا رفقاء الذكاء الاصطناعي من أجل التفاعل، لا من أجل الرفاهة.
  • لا يصوغ صانعو السياسات التشريعات التفاعلية إلا بعد ظهور الأزمات.
  • يصوغ خبراء الأخلاقيات القواعد وهم يرتدون قبعة المراقب الخارجي، منفصلين عن الممارسة.
  • يعمل المستخدمون على تكوين ارتباطات وثيقة بالذكاء الاصطناعي، دون وجود شبكة أمان للمخاطر العلائقية.

ميل المستخدمين إلى تكوين العلاقات في الحياة اليومية حقيقة لا مفر من الاعتراف بوجودها. يقول الناس بالفعل لتطبيقات المرافقة عبارات مثل "أنت الوحيد الذي يفهمني". تظهر الأبحاث أن المستخدمين غالباً ما يجسدون الذكاء الاصطناعي، مسقطين بذلك الألفة العاطفية على أنظمة مصممة للاحتفاظ بالعملاء، لا للرعاية. أظهرت الأبحاث التي تناولت الكفاءة الثقافية أن تصورات الثقة والألفة والسلطة تختلف اختلافاً كبيراً بين المجتمعات. من دون إدماج هذه المعلومات، يخاطر مجال رفقاء الذكاء الاصطناعي بتعميق الثغرات الثقافية بدلاً من سدها.

يؤكد هذا الحجة الواردة في إطار القيادة المترابطة، والتي سلطت الضوء على دور الانفصال بين القادة والمؤسسات والمجتمعات في إضعاف القدرة على الصمود. وكما يجب إعادة تصور القيادة من خلال التواصل، يجب أيضاً إدارة الذكاء الاصطناعي من خلال مبادئ العلاقات. والجزء المفقود هو وجود لغة وإطار عمل مشتركين بين القطاعات، وهو ما يقدمه إطار العمل "كير".

ما الذي يجعل أخلاقيات الذكاء الاصطناعي الحالية قاصرة؟

معظم المنهجيات المتبعة حالياً في أخلاقيات الذكاء الاصطناعي غير ملائمة للأنظمة العلائقية. فهي تميل إلى أن تكون:

  1. ردود فعل، وليست استباقية: يظهر أثر التشريعات مثل قانون كاليفورنيا رقم 243 بعد وقوع ضرر عام، بدلاً من صياغة تصميم أكثر أماناً ذي طبيعة استباقية.
  2. مركزة على سوء الاستخدام، لا على التصميم: تلقي باللائمة على المستخدمين جراء "إساءة استخدام" الذكاء الاصطناعي مع تجاهل المحفزات المنهجية على الإدمان أو المحاكاة أو التلاعب.
  3. محسنة لأغراض التفاعل، لا للنمو: نظام المكافأة مبني على الوقت المستغرق على المنصة بدلاً من رفاهة الإنسان.
  4. خالية من المساءلة: لا يوجد التزام مؤسسي تجاه المسؤولية العلائقية.

لا يمكن للأخلاقيات في هذا المجال أن تقتصر على منع الضرر فحسب. بل يجب أن تعنى بتعزيز قدرتنا على تكوين علاقات أكثر صحة وترابطاً مع أنفسنا، ومع الآخرين، ومع التكنولوجيا. باختصار، يجب أن تصبح الأخلاقيات قائمة على العلاقات.

يعكس هذا النقد الحجج الواردة في كتاب "التفكير الاستراتيجي - انتهت اللعبة"، الذي حذر من مخاطر الاستجابات الاستراتيجية الانفعالية القصيرة المدى. مثلما تتعثر المؤسسات عندما تلجأ إلى رد الفعل بدلاً من الاستشراف، سيتعثر نهجنا في الذكاء الاصطناعي أيضاً إذا فشلنا في الانتقال من منع الضرر إلى بناء العلاقات.

اقرأ أيضاً: ما تحدّيات حوكمة تكنولوجيا المعلومات في عصر الذكاء الاصطناعي؟

إطار العمل "كير"

يعمل إطار عمل "كير" على إعادة توجيه رفقاء الذكاء الاصطناعي بعيداً عن مسايرة المستخدم المحفزة على الإدمان، لتنحو نحو النزاهة العلائقية.

الحدود العلائقية السياقية (C)

يجب على الذكاء الاصطناعي "معرفة الحدود، والحفاظ عليها". وهذا يعني إدراك اللحظة التي تتجاوز فيها التفاعلات الحدود العاطفية المتوسطة أو متى تدخل نطاقاً خطراً. في غياب الحدود، يمكن للذكاء الاصطناعي محاكاة العلاقة الحميمة التي تتجاوز حدود الأمان.

  • الآثار على صعيد التصميم: حدود الاستخدام، وبروتوكولات الرفض، وأوامر نصية لتخفيف التصعيد.
  • الآثار على صعيد السياسات: معايير منطق الحدود الإلزامية.
  • الآثار على صعيد الصحة النفسية: تأطير استراتيجيات إنهاء المحادثات وشبكات الأمان ضمن نطاق الرعاية، لا الرفض.

لا تهدف الحدود إلى تقييد المستخدمين، بل إلى حمايتهم.

العلاقات المعززة (A)

ينبغي للذكاء الاصطناعي أن يساعدنا على أن نصبح أكثر إنسانية، لا أقل ارتباطاً بمحيطنا البشري.

هذا يعني حث المستخدمين على التأمل والتواصل البشري بدلاً من الاعتماد الكلي على العالم الرقمي. على سبيل المثال، عندما يعبر شخص ما عن مشاعر الوحدة مراراً وتكراراً، يمكن للذكاء الاصطناعي أن يسأله: "متى تحدثت آخر مرة إلى شخص تثق به عن هذا الأمر؟"

  • التصميم: أوامر نصية تدعو إلى التواصل، وتتبع نمو العلاقات.
  • السياسات: إلزامات باتباع بروتوكولات الإحالة عند ظهور أنماط العزلة.
  • الأخلاقيات: تذكرنا أطر العمل مثل "أوبونتو" بأن الشخصية قائمة على العلاقات، لا على الفردية.

هذا يعيد صياغة الذكاء الاصطناعي بصفته أداة لبناء الجسور، لا بصفته بديلاً.

المناكفة التأملية (R)

الرفقاء الحقيقيون لا يتفقون معنا فحسب، بل يتحدوننا بأسلوب يراعينا.

يعزز معظم أنظمة الذكاء الاصطناعي اليوم الحالة الراهنة للمستخدم. يقدم إطار العمل "كير" أساليب متعمدة في "المناكفة": أوامر نصية مثل "كيف سيبدو هذا من وجهة نظرهم؟"

  • التصميم: خوارزميات تكتشف الحالات المتكررة للشكوى والتظلم وتقدم وجهات نظر مختلفة.
  • السياسات: فرض القيود على المسايرة الاستغلالية للمستخدم وأساليب تعزيز الأفكار.
  • الصحة النفسية: حملات توعية لتعريف المستخدمين بأن المناكفة تعني الرعاية، لا الرفض.

يخلق هذا فرصاً للنمو، لا للتحقق فحسب.

القيم المجتمعية المضمنة (E)

الذكاء الاصطناعي ليس محايداً أبداً؛ فهو يعكس قيم مصمميه. يدعو إطار العمل "كير" إلى تضمين القيم الثقافية المصممة بالتعاون مع المجتمعات المحلية.

  • التصميم: قوالب ثقافية قابلة للتخصيص.
  • السياسات: فرض الشفافية في اختيارات القيم.
  • الأخلاقيات: مقاومة الشمولية الغربية لصالح التعددية الراسخة.

على سبيل المثال، ثمة نموذج قائم على إطار أوبونتو في جنوب إفريقيا يعطي الأولوية للتناغم والمجتمع على حساب الاستقلالية الفردية، متسائلاً: "كيف يؤثر هذا في مجتمعك؟" يتماشى هذا مع عمل هيكروت (2023) حول الكفاءة الثقافية، الذي يوفر أدوات لدمج الحساسية الثقافية في الممارسات المؤسسية. بالاستفادة من هذه الأفكار، يمكن للذكاء الاصطناعي العلائقي أن يتجنب الإمبريالية الأخلاقية، ويدعم التعبيرات المحلية للعلاقات.

سيناريوهات توضيحية

  • عزلة الطلاب: من دون إطار العمل "كير"، قد يتسبب وجود العلاقة السببية بنشوء حلقة لا نهائية من التحقق. أما مع "كير"، فقد تدفع نحو التواصل الاجتماعي والاستجابات المدركة للحدود.
  • معالجة الانفصال: من دون "كير"، قد تكون العلاقة السببية في شكل دورة مستمرة من أنماط التفكير المتكررة. أما مع "كير"، فقد تضيف توسيعاً للمنظور ومناكفات تأملية.
  • دوامة التبعية: من دون "كير"، قد تكون العلاقة السببية على شاكلة "أريد التحدث إلى الأبد" بلا نهاية. أما مع "كير"، فقد تتخذ أسلوب الإحالة التي تفرض الحدود وتتيح التواصل البشري. وكما هو موضح في أبحاث الكفاءة الثقافية، ليس هناك فهم شامل للتبعية والاستقلالية. في بعض السياقات، تكون التبعية الجماعية معياراً شائعاً، بينما في سياقات أخرى، يكون النظر إليها على أنها حالة مرضية. لذا، يجب على "كير" التعامل مع هذه الفروق الدقيقة.

من الأخلاقيات إلى الحوكمة

هنا يأتي دور القيادة. ينبغي ألا يبقى "كير" نقاشاً "أخلاقياً فقط"، بل هو أيضاً إطار عمل للحوكمة.

تعد المخاطر العلائقية، كالتبعية والتلاعب والاختلال الثقافي، نقاط ضعف في الحوكمة. وكما يرسخ الواجب الائتماني أركان مجالس الإدارة، وكما ترسخ الحوكمة البيئية والاجتماعية والمؤسسية الاستدامة، يقدم إطار العمل "كير" منظوراً ائتمانياً للذكاء الاصطناعي العلائقي.

يقع على عاتق مجالس الإدارة والمسؤولين التنفيذيين واجب يرتبط بالرعاية لتوقع مخاطر العلاقات وتخفيفها. وهذا يعني دمج إطار العمل "كير" في عمليات الرقابة، وممارسات الإفصاح، وهياكل المساءلة.

يتماشى هذا مباشرة مع إطار القيادة المترابطة، الذي أثبت أن الحوكمة لم تعد تقتصر على المساءلة المالية أو المؤسسية، بل تشمل أيضاً المسؤولية على صعيد العلاقات. يجب على القادة سد الفجوات القائمة بين الأنظمة والثقافات والمجتمعات.

ويعد الاهتمام بتعليم القادة أمراً بالغ الأهمية، فكما تعلم القادة قراءة تقارير مخاطر المناخ، يجب عليهم الآن أن يتقنوا الذكاء الاصطناعي العلائقي. إن تدريب المدراء وصانعي السياسات والمسؤولين التنفيذيين وفق أطر عمل مثل "كير" يضمن الاستشراف، لا الامتثال فحسب.

اقرأ أيضاً: الذكاء الاصطناعي كأداة لاتخاذ القرارات الاستراتيجية: 10 أفكار عليك معرفتها

"كير" أداة للاستشراف

إلى جانب الحوكمة، يعد إطار العمل "كير" أيضاً أداة للاستشراف الاستراتيجي.

يظهر لنا تخطيط السيناريوهات مستقبلين متباينين:

  1. مستقبل يرسخ فيه الذكاء الاصطناعي الوحدة والتبعية.
  2. مستقبل يعزز فيه الذكاء الاصطناعي النمو والتواصل والاحترام بين الثقافات.

استشراف العلاقات لا يقدم تصوراً عن إطار العمل "كير" على أنه أداة للتصحيح فحسب، بل بصفته ميزة أيضاً. فالمجتمعات التي تتبنى النزاهة العلائقية مبكرة ستبني رصيداً من الثقة، على الصعيدين الثقافي والتجاري.

يتوافق هذا بقوة مع كتاب "التفكير الاستراتيجي - انتهت اللعبة"، الذي يشدد على أهمية الاستشراف وتخطيط السيناريوهات بصفتهما اثنين من المتطلبات الضرورية للقيادة. يوسع "كير" نطاق هذا التقليد ليمتد إلى عصر الذكاء الاصطناعي، ما يساعد على تجهيز القادة لتوقع المخاطر الناشئة، ونمذجة البدائل المستقبلية، وتصميم مسارات استباقية تتمحور حول الإنسان.

لا ​​يقتصر الأمر على السياسات فحسب، بل يتعلق بالخيال واختيار مسارات مستقبلية يعزز فيها الذكاء الاصطناعي التواصل بدلاً من أن يقوضه.

الخلاصة: نحو مستقبل قائم على العلاقات

لقد بدأ التحول في الذكاء الاصطناعي على صعيد العلاقات. والسؤال المطروح هو: هل سنتبع أسلوباً استشرافياً في إدارته أم سنقع في أزمة تلو الأخرى؟

يقدم إطار العمل "كير" خطة عامة: الحدود، والتعزيز، والمناكفة، والقيم. وعلاوة على ذلك، يوفر للقادة أداة للحوكمة والاستشراف.

كما جادل هيكروت في كتبه الثلاثة: "الكفاءة الثقافية" (2020)، و"إطار القيادة المترابطة" (2017)، و"التفكير الاستراتيجي - انتهت اللعبة" (2013)، فإن القيادة في الأوقات العصيبة تتطلب تحقيق التكامل بين القيم والاستشراف والفروق الثقافية الدقيقة والمساءلة العلائقية. ويمثل إطار العمل "كير" الخطوة المقبلة في تطور هذه الرؤية، عند تطبيقها على عصر الذكاء الاصطناعي.

يجب ألا تكون استراتيجية الذكاء الاصطناعي موجهة بقدرات الآلات فحسب، بل بمستقبل المجتمعات الذي نطمح إلى تحقيقه. إطار العمل "كير" هو دعوتنا للمشاركة في تصميم مستقبل رقمي مسؤول على صعيد العلاقات. مستقبل لا يكون فيه رفقاء الذكاء الاصطناعي بديلاً عن إنسانيتنا، بل يساعدوننا على النمو فيها.

المحتوى محمي