لا للشر في الذكاء الاصطناعي: جوجل تقول أن خوارزميتها لن تكون مؤذية

2 دقائق
مصدر الصورة: آييكون/ أنبيليرو أداليرو/ ياروسلاف سامويلوف/ إس بي تي إس/ هيا بون لين (ذا ناون بروجيكت)

وضعت جوجل ميثاقاً أخلاقياً للذكاء الاصطناعي يمنع تطوير الأسلحة ذاتية التحكم، غير أن هذه المبادئ تترك مجالاً للمناورة يتيح لجوجل الاستفادة من العقود العسكرية المربحة.

أتى هذا الإعلان على إثر اعتراض داخلي عارم على استخدام تقنيات الذكاء الاصطناعي لجوجل في مبادرة لوزارة الدفاع الأميركية باسم فريق الوظائف المتعددة لحرب الخوارزميات، وتهدف هذه المبادرة، والتي تعرف أيضاً باسم مشروع ميفن، إلى تحسين دقة ضربات الطائرات المسيرة، إضافة إلى أشياء أخرى. وهي فضيحة أدت مؤخراً إلى استقالة دزينة من موظفي جوجل، كما وقع الكثيرون على رسالة احتجاجية مفتوحة. يعبر كل هذا الصخب عن مخاوف الكثيرين من استخدام التكنولوجيا في أتمتة الحروب في المستقبل، ولكن المسألة ليست بهذه البساطة.

يمكن أن يساعد الذكاء الاصطناعي على جعل بعض أنظمة الأسلحة أكثر أماناً وأقل عرضة للخطأ. كما يوجد العديد من التطبيقات البسيطة للذكاء الاصطناعي في الصناعات العسكرية، ولا ترغب جوجل بالتخلي عن كل هذه الأسواق المحتملة لتقنية الذكاء الاصطناعي السحابي لديها.

أعلن المدير التنفيذي لجوجل، سوندار بيتشاي، عن الميثاق الجديد مؤخراً في منشور على مدونة للشركة. ويقترح سبع مبادئ توجه استخدام جوجل للذكاء الاصطناعي، وهي أنه يجب أن يكون مفيداً للمجتمع، ويتجنب الانحياز في الخوارزميات، ويحترم الخصوصية، ويخضع لاختبارات السلامة، ويخضع للمساءلة من قبل العامة، ويحافظ على الدقة العلمية، ويكون متاحاً للآخرين ممن يتبعون نفس المبادئ.

ولكن بيتشاي بذل أيضاً جهداً كبيراً في التأكيد على أن جوجل لن تسمح باستخدام تقنياتها للذكاء الاصطناعي في أي تطبيقات يمكن أن تتسبب بالأذى، بما في ذلك "الأسلحة وغيرها من التقنيات التي تهدف أو يؤدي تطبيقها إلى التسبب بالأذى للناس أو تسهيل هذا الأذى بشكل مباشر". كما يقول بيتشاي أن جوجل ستتجنب تطوير تقنيات المراقبة التي تخترق المعايير المقبولة عالمياً لحقوق الإنسان، أو أية تقنيات أخرى تنتهك القوانين الدولية.

بدأ الذكاء الاصطناعي يتطور بوتيرة متسارعة، وقد واجهت جوجل العديد من المتاعب في مشاريع أخرى تتعلق بالذكاء الاصطناعي. وعلى سبيل المثال، فقد ارتكب أحد أنظمتها للرؤية الحاسوبية خطأ فادحاً بشكل متكرر تمثل في تحديد الناس من أصول أفريقية على أنهم حيوانات غوريلا. وعلى الرغم من أن الشركة توقفت عن استخدام شعارها غير المعلن "لا تكن شريراً" في أبريل المنصرم، فقد حافظت على ثقافتها المثالية.

قد تصبح التطبيقات العسكرية لتقنيات الذكاء الاصطناعي أكثر إثارة للجدل مع استخدامها بطرق جديدة، وسعي الشركات لبيع تقنيات الذكاء الاصطناعي السحابي على أوسع نطاق ممكن. من المؤكد أن التعلم الآلي والذكاء الاصطناعي سيصبحان أكثر أهمية في عمل الجيوش والاستخبارات، حيث قدمت شركات تقنية أميركية أخرى، مثل أمازون ومايكروسوفت، عروضاً بمليارات الدولارات لمشاريع حوسبة سحابية إلى البنتاجون.