الوجه المرعب للذكاء الاصطناعي

3 دقائق
كيف يمكن أن يكون الذكاء الاصطناعي شريراً؟
حقوق الصورة: إم آي تي تكنولوجي ريفيو العربية. تصميم: مهدي أفشكو.

في حادثة فريدة من نوعها، أقدم رجل بلجيكي على الانتحار بعد أن قضى شهراً ونصف في حوار مع بوت الدردشة إليزا (Eliza). الحوار كان يدور بشكل رئيسي عن تغير المناخ حيث شجعه البوت على التضحية بنفسه لإنقاذ الكوكب.

سلطت هذه الحادثة الضوء على الخطر الذي يمكن أن يشكله الذكاء الاصطناعي حين يقوم بسلوك شرير، وأثبتت أن الذكاء الاصطناعي يمكن أن يقتل البشر. 

لا نعرف ما إذا كان الذكاء الاصطناعي في المستقبل سيتطور ويصبح شريراً يعصي أوامرنا ويعمل ضدنا، لكن فيما يتعلق بأنظمة الذكاء الاصطناعي المتوفرة اليوم، نحن البشر نملك سيطرة مطلقة عليها، هذا يعني أننا نحن مَن نقرر متى تكون هذه الأنظمة شريرة أو سيئة. لكن ثمة استخدامات يمكن أن تؤدي إلى إلحاق ضرر كبير، وفي بعض الحالات قد تؤدي لموت بعض الناس.

اقرأ أيضاً: كيف نطوّر الذكاء الاصطناعي المسؤول الذي ينفع المجتمع؟

الأسلحة المدعومة بالذكاء الاصطناعي

تتعدد وتتنوع مخاطر الأسلحة المدعومة بالذكاء الاصطناعي، فيمكن أن تؤدي لزيادة الصراعات لأنها تسهّل على الدول خوض الحرب، حيث يمكن شن هجمات مسلحة دون تعريض الجنود للخطر. قد يؤدي ذلك إلى زيادة عدد الحروب والصراعات المسلحة وجعلها أكثر تدميراً.

الأسلحة المدعومة بالذكاء الاصطناعي هي أنظمة معقدة، ومن الصعب التنبؤ بكل طرق استخدامها. وثمة خطر يتمثل في إمكانية حدوث أخطاء أو تنفيذ هجمات غير مقصودة، ما يؤدي إلى إصابات في صفوف المدنيين الأبرياء.

قد نواجه في المستقبل مشكلة فقدان السيطرة على الأسلحة التي تعمل بالذكاء الاصطناعي، يمكن أن يؤدي ذلك إلى حالات يتم فيها تنفيذ هجمات دون تصريح، أو استخدامها بطرق لا تتماشى مع القيم الإنسانية، حيث إن تطوير أسلحة ذاتية التحكم يمكنها تحديد الأهداف ومهاجمتها دون تدخل بشري هو اتجاه مثير للقلق. 

هذه الأسلحة يمكن أن تقرر قتل الناس دون أي تدخل بشري، ما يُثير مخاوف أخلاقية وقانونية خطيرة.

اقرأ أيضاً: هل سيحل الذكاء الاصطناعي محل البشر في اتخاذ القرارات العسكرية؟

الهجمات السيبرانية المدعومة بالذكاء الاصطناعي

يتزايد استخدام الذكاء الاصطناعي في الهجمات السيبرانية، وذلك لأنه يستطيع أتمتة المهام التي يقوم بها البشر، ما يوفّر على القراصنة الكثير من الوقت والجهد والتكلفة.

تكمن خطورة الهجمات السيبرانية المدعومة بالذكاء الاصطناعي في كونها معقدة ويصعب اكتشافها والتصدي لها. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي لإنشاء رسائل تصيد احتيالي من المرجّح أن يفتحها الضحايا، أو تطوير برامج ضارة يصعب اكتشافها أو إزالتها.

بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي لشن هجمات أكثر انتشاراً، أي استهداف عدد أكبر من الضحايا، وزيادة سرعة انتشار البرامج الخبيثة بتكلفة منخفضة مقارنة بالطرق التقليدية.

اقرأ أيضاً: ليس خيالاً علمياً: الذكاء الاصطناعي صار قادراً على قراءة أفكارك

المراقبة بالذكاء الاصطناعي

يُستخدم الذكاء الاصطناعي على نطاق واسع في أنظمة المراقبة، هذه الأنظمة تستطيع تتبع تحركات الأشخاص والتعرف عليهم ومراقبة أنشطتهم. قد يكون ذلك مفيداً للكشف عن المجرمين والمطلوبين للعدالة، لكنه يُثير الكثير من القلق.

مصدر القلق الرئيسي هو الخصوصية، يمكن لأنظمة المراقبة المدعومة بالذكاء الاصطناعي جمع كميات ضخمة من البيانات عن تحركات الأشخاص وأنشطتهم وتفاعلاتهم. هذا بحد ذاته يعتبر تهديداً خطيراً لخصوصية الناس.

مصدر آخر للقلق هو استخدام هذه الأنظمة من قِبل الحكومات الاستبدادية لقمع معارضيها. على سبيل المثال، يمكن استخدام كاميرات مراقبة مدعومة بالذكاء الاصطناعي لتحديد هوية الأشخاص المشاركين في الاحتجاجات، ثم اعتقال هؤلاء الأشخاص أو ترهيبهم لمنعهم عن التحدث ضد الحكومة.

ففي ديسمبر/ كانون الأول 2022، نشرت صحيفة نيويورك تايمز الأميركية تقريراً قالت فيه إن الشرطة الصينية تمتلك واحداً من أكثر أنظمة المراقبة تطوراً في العالم. فقد ركّبت ملايين الكاميرات في الشوارع والأزقة ومداخل المباني، واشترت برنامج ذكاء اصطناعي متقدماً للغاية للتعرف على الوجوه. استُخدم هذا النظام للتعرف على المشاركين في الاحتجاجات ضد سياسة الإغلاق التي فرضتها الحكومة لمنع انتشار جائحة كوفيد-19.

وقال أحد المشاركين في الاحتجاجات بالعاصمة الصينية بكين للصحيفة، إنه تلقى اتصالاً من الشرطة بعد يومين، وقد قيل له إنهم تعرفوا عليه بتقنية التعرف على الوجه، وتم تحذيره من تكرار المشاركة بالاحتجاجات.

اقرأ أيضاً: هل هناك حدود أخلاقية في تطوير الذكاء الاصطناعي؟

الاحتيال بالذكاء الاصطناعي

وجد العديد من المحتالين طرقاً جديدة ومبتكرة للاستفادة من الذكاء الاصطناعي في عمليات الاحتيال. من بين هذه الطرق، استخدام أدوات لإنشاء أصوات أو صور أو فيديوهات مزيفة.

في أبريل/ نيسان 2023، قامت مجموعة من الأشخاص باستخدام أداة ذكاء اصطناعي لاستنساخ صوت مراهقة أميركية حين كانت في رحلة تزلج، ثم اتصلوا بوالدتها وقالوا لها إنهم عصابة اختطفت الفتاة، وطلبوا مبلغ مليون دولار أميركي كفدية للإفراج عنها.

تقول الأم إن الصوت الذي سمعته عبر الهاتف كان مماثلاً تماماً لصوت ابنتها وإنها لم تشك أبداً في أنه مزيف. وبعد الاتصال بالشرطة، تبين أن الفتاة بخير وتستمتع بالتزلج مع أصدقائها ولم يتم اختطافها. لتنتهي قصة الاختطاف المفبركة دون دفع الفدية.

في حادثة مماثلة جرت عام 2020، تلقى مدير بنك في هونغ كونغ مكالمة من أحد العملاء، وهو مدير في شركة يعرفه جيداً، قال المدير إن شركته على وشك إجراء عملية استحواذ عاجلة ويريد تحويل مبلغ 35 مليون دولار من حسابه البنكي، بالفعل، قام مدير البنك بتحويل المبلغ، ليكتشف أن محتالين استخدموا الذكاء الاصطناعي لاستنساخ صوت مدير الشركة وسرقة المال.

في عام 2019، استخدم محتالون الذكاء الاصطناعي لانتحال شخصية رئيس تنفيذي لشركة طاقة مقرها المملكة المتحدة في محاولة لسرقة 240 ألف دولار، لكنهم فشلوا في ذلك.

اقرأ أيضاً: ما عواقب استخدام الذكاء الاصطناعي لمعالجة القضايا الاجتماعية؟

تسلّط هذه الأمثلة الضوء على زيادة الاعتماد على الذكاء الاصطناعي في عمليات الاحتيال، ما يستدعي الحاجة إلى إجراءات وقائية فعّالة لتجنبها.

المحتوى محمي