شهد العالم في السنوات الأخيرة ثورة تكنولوجية غير مسبوقة يقودها الذكاء الاصطناعي، حيث أصبحت تطبيقاته منتشرة في مختلف القطاعات مثل الرعاية الصحية والصناعة والزراعة والتعليم والدفاع. هذه الابتكارات تترافق مع إمكانات هائلة لتحسين حياة البشر وزيادة الكفاءة، لكنها تأتي أيضاً مع مخاطر جمّة؛ إذ يمكن أن يؤدي سوء استخدام الذكاء الاصطناعي إلى عواقب وخيمة تصل إلى تهديد حياة البشر. ففي القطاع الصحي، يؤدي الاعتماد على خوارزميات غير دقيقة في التشخيص أو التوصية بالعلاج إلى أخطاء طبية قاتلة. على سبيل المثال، وجد باحثون من معهد إم آي تي (MIT) الأميركي، أن الروبوتات الجراحية كانت مسؤولة عن وفاة 144 مريضاً وإصابة 1391 مريضاً، يبن عامي 2000 و2013.
اقرأ أيضاً: أهم 5 مخاطر ومسائل أخلاقية مرتبطة باستخدام الذكاء الاصطناعي
ما هو الاستخدام الخاطئ للذكاء الاصطناعي؟
الاستخدام الخاطئ للذكاء الاصطناعي يعني تطبيق هذه التكنولوجيا بطريقة غير مدروسة أو غير مسؤولة، سواء كان ذلك بسبب عدم فهم القيود، أو الاعتماد المفرط عليها دون إشراف ومراقبة بشرية مناسبة. تتجلى مخاطر هذا الاستخدام في عدة جوانب. على سبيل المثال، في الرعاية الصحية، إذا تم الاعتماد على نماذج الذكاء الاصطناعي في تشخيص الحالات الطبية دون تدخل الأطباء، فإن أي خطأ في البرمجة أو تدريب الخوارزمية على بيانات غير دقيقة يمكن أن يؤدي إلى قرارات طبية قاتلة.
وفي أنظمة القيادة الذاتية، قد يؤدي الاعتماد الكلي على الذكاء الاصطناعي دون اختبار دقة نظام القيادة إلى حوادث مميتة. إضافةً إلى ذلك، في المجال العسكري، يمكن أن تؤدي القرارات الآلية التي تتخذها أنظمة الذكاء الاصطناعي إلى أخطاء استراتيجية أو عملياتية تؤدي إلى خسائر كبيرة في الأرواح.
هذا النوع من الاستخدام الخاطئ ناجم في الغالب عن عدم فهم البشر كيفية عمل الذكاء الاصطناعي، أو الفشل في وضع معايير دقيقة لتنظيم عمل واستخدام هذه التكنولوجيا والإشراف عليها.
اقرأ أيضاً: هل نحن أمام مخاطر وجودية فعلاً من الذكاء الاصطناعي؟
أمثلة واقعية على الاستخدام الخاطئ للذكاء الاصطناعي وأثره القاتل
فيما يلي بعض الأمثلة التي تسبب فيها الاستخدام الخاطئ لأنظمة الذكاء الاصطناعي في موت البشر:
حادث القيادة الذاتية لشركة أوبر
في شهر مارس 2018، اصطدمت سيارة ذاتية القيادة تابعة لشركة أوبر (Uber) بامرأة في ولاية أريزونا الأميركية، ما أدّى إلى وفاتها. وأظهرت التحقيقات أن نظام الذكاء الاصطناعي المسؤول عن القيادة لم يتعرف على المرأة ولم يتوقف في الوقت المناسب.
على الرغم من وجود سائق بشري في السيارة، لكنه اعتمد بالكامل على نظام القيادة الذاتية. هذه الحادثة أبرزت خطورة الاعتماد الكلي على الذكاء الاصطناعي في الأنظمة الحساسة مثل القيادة الذاتية دون وجود آليات مراقبة وإشراف بشري كافٍ.
ما هو الخطأ في هذه الحالة؟
الخطأ في هذه الحالة أن السائق لم يكن ينظر إلى الطريق على الرغم من أن التعليمات تفرض عليه ذلك، وذلك بسبب ثقته بقدرات القيادة الذاتية.
أخطاء تشخيص كوفيد-19
في عامي 2020 و2021، وبسبب الضغط الكبير الذي تعرضت له مؤسسات الرعاية الصحية نتيجة انتشار جائحة كوفيد-19، استخدمت بعض المستشفيات البريطانية نظام ذكاء اصطناعي لتشخيص حالات الإصابة بكوفيد-19 بناءً على صور الأشعة الصدرية. في بعض الحالات، أخطأ النظام في التشخيص وصنّف بعض المرضى على أنهم غير مصابين، كما أوصى بعلاجات غير مناسبة لبعض المرضى. هذه الأخطاء قد تكون السبب في حدوث وفيات نتيجة عدم الحصول على الرعاية الصحية والعلاج الصحيح.
ما هو الخطأ في هذه الحالة؟
الخطأ هو الاعتماد على نظام ذكاء اصطناعي تم تطويره بسرعة بالاعتماد على بيانات غير كافية، واستخدامه لتشخيص حالات مرضية مهددة للحياة.
اقرأ أيضاً: أبرز مخاطر الخصوصية الناجمة عن استخدام الذكاء الاصطناعي
حوادث الطائرات المسيّرة العسكرية
في عام 2020، وثّق تقرير للأمم المتحدة حادثة شنت فيها طائرة مسيّرة مدعومة بالذكاء الاصطناعي هجوماً ذاتياً على هدف بشري خلال الصراع العسكري في ليبيا، دون أوامر مباشرة من مشغليها. هذا الحادث يعتبر أحد الأمثلة البارزة على المخاطر القاتلة للذكاء الاصطناعي عندما يُترك دون إشراف بشري مباشر في ظروف خطيرة مثل العمليات العسكرية.
ما هو الخطأ في هذه الحالة؟
الخطأ هو منح الذكاء الاصطناعي الصلاحيات لاتخاذ قرارات بشن هجوم عسكري دون طلب الإذن من المشغل البشري، فحتى لو كان النظام متقدماً، يمكن أن يرتكب أخطاءً بسبب ظروف الحرب المتغيرة التي يصعب التنبؤ بها.
تُسلّط هذه الأمثلة الضوء على أهمية تنظيم استخدام الذكاء الاصطناعي ووضع معايير أمان صارمة لمنع مثل هذه الحوادث المميتة.