مجموعات أخلاقيات الذكاء الاصطناعي تكرر أحد الأخطاء المجتمعية التقليدية

4 دقائق
مجموعات أخلاقيات الذكاء الاصطناعي تكرر أحد الأخطاء المجتمعية التقليدية
مصدر الصورة: غيتي إيميدجيز.

تتسابق المنظمات والشركات العالمية فيما بينها لتطوير إرشادات على مستوى العالم من أجل الاستخدام الأخلاقي للذكاء الاصطناعي. وبدأت شبكة الإنترنت تشهد طوفاناً غير مسبوق من الإعلانات والبيانات الرسمية والتوصيات. غير أن هذه الجهود ستكون عبثية إذا لم تأخذ بعين الاعتبار السياق الثقافي والإقليمي لعمل الذكاء الاصطناعي.

لقد أثبت الباحثون، وبشكل متكرر، أن أنظمة الذكاء الاصطناعي يمكن أن تتسبب في مشاكل تؤثر بشكل خاص على المجموعات المهمشة، وفي نفس الوقت، تفيد الفئة القليلة التي تتمتع بالامتيازات. تهدف المبادرات الحالية حول أخلاقيات الذكاء الاصطناعي -التي تُعد بالعشرات- إلى مساعدة الجميع على الاستفادة من هذه التكنولوجيا، ومنعها من التسبب في الأذى. وبشكل عام، تتجسد جهود هذه المبادرات بصياغة التوجيهات والمبادئ التي يجب أن يتبعها المطورون، والممولون، والمشرعون. وعلى سبيل المثال، يمكن أن تنصح هذه المبادرات بعمليات تدقيق داخلية روتينية، أو تتطلب إجراءات لحماية معلومات المستخدمين التي يمكن أن تؤدي إلى التعرف عليهم شخصياً.

في رأينا، إن هذه المجموعات لديها نوايا حسنة، وتبذل جهوداً تستحق الشكر. وبالفعل، نتفق مع الرأي القائل بوجوب اتفاق أوساط الذكاء الاصطناعي على مجموعة دولية من التعاريف والمفاهيم للذكاء الاصطناعي الأخلاقي. ولكن إذا لم يكن التمثيل الجغرافي لهذه المجموعات أكثر تنوعاً وشمولية، فإنها ستنتج نظرة دولية لأخلاقيات الذكاء الاصطناعي تعكس وجهات نظر الناس في بضعة مناطق من العالم وحسب، وعلى وجه الخصوص، أميركا الشمالية وشمال غرب أوروبا.

هذا العمل ليس بالسهل أو المباشر؛ حيث إن مصطلحات “العدالة” و”الخصوصية” و”التحيز” تختلف المدلولات التي تشير إليها باختلاف الأماكن (ملف بي دي إف). كما أن توقعات الناس لهذه المفاهيم تتباين إلى حد كبير وفقاً لأوضاعهم السياسية والاجتماعية والاقتصادية. إضافة إلى ذلك، فإن تحديات ومخاطر الذكاء الاصطناعي تختلف باختلاف الأماكن أيضاً.

وإذا لم تتمكن منظمات أخلاقيات الذكاء الاصطناعي من الاعتراف بهذه الاختلافات، فإنها ستخاطر بتطوير معايير ستكون، في أفضل الأحوال، عديمة المعنى وضعيفة الفعالية في جميع أنحاء العالم. أما في أسوأ الأحوال، فقد تؤدي هذه المعايير المختلة إلى زيادة أنظمة وأدوات الذكاء الاصطناعي التي ستعزز من التحيزات الموجودة مسبقاً، والتي لا تراعي الثقافات المحلية.

وعلى سبيل المثال، في 2018، لم تستجب شركة فيسبوك بسرعة للمعلومات المزيفة التي كانت تنتشر في ميانمار، والتي أدت في نهاية المطاف إلى انتهاكات لحقوق الانسان. وقد بيَّن تقييم (بصيغة بي دي إف) -دفعت الشركة تكاليفه- أن هذا الخطأ يعود بشكل جزئي إلى إرشادات مجتمع فيسبوك وسياسات مراقبة المحتوى، التي لم تتمكن من التعامل مع الواقع السياسي والاجتماعي للبلاد.

يوجد نقص واضح في التنوع الجغرافي في الكثير من الهيئات الاستشارية ومجموعات الخبراء والمجالس المختصة بالذكاء الاصطناعي.

ولمنع وقوع هذه المشاكل، يجب على الشركات التي تعمل على وضع إرشادات أخلاقية لأنظمة وأدوات الذكاء الاصطناعي أن تتعامل مع المستخدمين من جميع أنحاء العالم للمساعدة على بناء معايير مناسبة لإدارة هذه الأنظمة. كما يجب أن تكون هذه الشركات مدركة لكيفية تطبيق سياساتها في سياقات مختلفة.

وعلى الرغم من المخاطر، يوجد نقص واضح في التنوع الجغرافي في الكثير من الهيئات الاستشارية ومجموعات الخبراء والمجالس المختصة بالذكاء الاصطناعي، التي تعينها المنظمات الدولية الرئيسية. وعلى سبيل المثال، فإن مجموعة الخبراء الاستشارية لمشروع منظمة اليونيسيف للذكاء الاصطناعي للأطفال لا تتضمن ممثلين من المناطق التي تحوي الكثافة الأكبر من الأطفال واليافعين، بما في ذلك مناطق الشرق الأوسط وأفريقيا وآسيا.

ومن سوء الحظ، يشير الوضع الحالي إلى أن مجال أخلاقيات الذكاء الاصطناعي بأسره معرض لخطر كبير؛ حيث يمكن أن يحصر نفسه في مجال ضيق من اللغات والأفكار والنظريات والتحديات من حفنة صغيرة من المناطق وحسب، وبشكل رئيسي، أميركا الشمالية وأوروبا الغربية وشرق آسيا.

وينعكس هذا النقص في التنوع الجغرافي على التركيز الحالي لأبحاث الذكاء الاصطناعي (ملف بصيغة بي دي إف)؛ حيث إن نسبة 86% من الأبحاث المنشورة في مؤتمرات الذكاء الاصطناعي في 2018 كانت عائدة لباحثين في شرق آسيا وأميركا الشمالية وأوروبا. ومن أصل الأبحاث المنشورة في هذه المناطق، لم تنشر المناطق الأخرى سوى نسبة أقل من 10%. ويظهر هذا التباين بشكل واضح أيضاً في براءات الاختراع؛ حيث تعود نسبة 51% من براءات الاختراع في الذكاء الاصطناعي -التي نُشرت في 2018- إلى أميركا الشمالية.

وإذا تُرك المجال لهذا النقص في التنوع الجغرافي حتى يحدد جهود أخلاقيات الذكاء الاصطناعي، فإن جميع الجهود المبذولة في هذا المجال ستؤدي إلى أضرار أكبر من فوائدها. وإذا لم نكن حذرين، فقد ينتهي بنا المطاف إلى ترسيخ التحيزات التاريخية للذكاء الاصطناعي في الإرشادات والتوصيات التي ستحدد توجه هذه التكنولوجيا لعدة أجيال لاحقة. علينا أن نبدأ بمنح الأولوية للأصوات من البلدان متوسطة ومنخفضة الدخل، خصوصاً تلك الواقعة في “جنوب الكرة الأرضية”، وتلك التي تنتمي تاريخياً إلى المجموعات المهمشة.

لطالما كانت التطورات التكنولوجية مفيدة للغرب، في حين كانت في نفس الوقت تعزز التفاوت الاقتصادي والقمع السياسي والتدمير البيئي في كل مكان آخر، وبالتالي فإن مشاركة البلدان غير الغربية في صياغة أخلاقيات الذكاء الاصطناعي هي أفضل طريقة لتجنب تكرار هذا الأمر.

من ناحية أخرى، يمكننا أن نتفاءل من حيث وجود الكثير من الخبراء والقياديين من تلك المناطق ضعيفة التمثيل ممن يمكنهم المشاركة في المجموعات الاستشارية. ولكن يبدو أن الكثير من المنظمات الدولية لا تبذل الكثير من الجهد في اجتذاب مشاركة هؤلاء الأشخاص. وعلى سبيل المثال، فإن الاتحاد العالمي لأخلاقيات الذكاء الاصطناعي -الذي تشكل حديثاً- لا يتضمن أي أفراد مؤسسين يمثلون مؤسسات أكاديمية أو مراكز بحثية من الشرق الأوسط أو أفريقيا أو أميركا اللاتينية، ويمثل هذا الغياب مثالاً واضحاً عن الأنماط الاستعمارية التي تكرر نفسها (ملف بصيغة بي دي إف).

إذا كنا نريد بناء أنظمة ذكاء اصطناعي أخلاقية وآمنة وشاملة بدلاً من الانخراط في “تبييض الأخلاقيات”، يجب أولاً أن نمد جسور الثقة مع هؤلاء الذي تعرضوا تاريخياً للأذى بسبب هذه الأنظمة. وهذا يبدأ مع اتفاق واضح.

في معهد مونتريال لأخلاقيات الذكاء الاصطناعي (حيث يعمل كلانا)، كنا نحاول اعتماد مقاربة مختلفة؛ حيث نقوم باستضافة اجتماعات رقمية لأخلاقيات الذكاء الاصطناعي، وهي نقاشات مفتوحة يمكن أن ينضم إليها أي شخص يمتلك هاتفاً أو اتصالاً بالإنترنت. وخلال هذه الأحداث، تواصلنا مع مجموعة متنوعة من الأفراد، بدءاً من بروفسور يعيش في ماكاو وصولاً إلى طالب جامعي يدرس في مومباي.

في هذه الأثناء، فإن بعض المجموعات التي اعترفت بنقص التنوع الجغرافي في الذكاء الاصطناعي -مثل مجموعة الشراكة حول الذكاء الاصطناعي- نصحت بإجراء تغييرات على قوانين منح تأشيرات الدخول، واقترحت بعض السياسات التي تسهل على الباحثين السفر ومشاركة أبحاثهم. أما ماسخاني، وهي منظمة شعبية، فتجمع باحثي معالجة اللغة الطبيعية من أفريقيا لتعزيز عمل الترجمة الآلية، الذي كان يقتصر فقط على اللغات الرئيسية في العالم.

من المشجع أن نرى أن المنظمات الدولية تحاول إشراك وجهات نظر أكثر تنوعاً في نقاشاتها حول الذكاء الاصطناعي. ومن الهام بالنسبة لنا جميعاً أن نتذكر أن التنوع الجغرافي والثقافي أمر هام لأي حوار حول أخلاقيات الذكاء الاصطناعي. سيكون من المستحيل تحويل الذكاء الاصطناعي المسؤول من استثناء إلى قاعدة من دون أصوات الأشخاص الذين لا يمسكون بزمام النفوذ والسلطة.

أبيشيك جوبتا مؤسس معهد مونتريال لأخلاقيات الذكاء الاصطناعي ومهندس التعلم الآلي في مايكروسوفت، حيث يشغل منصب عضو المجلس المختص بالنواحي الاجتماعية والأخلاقية للذكاء الاصطناعي.

فيكتوريا هيث باحثة في معهد مونتريال لأخلاقيات الذكاء الاصطناعي وباحثة رئيسية زميلة في اتحاد الناتو في كندا.