هل سيحل الذكاء الاصطناعي محل البشر في اتخاذ القرارات العسكرية؟

5 دقائق
هل سيحل الذكاء الاصطناعي محل البشر في اتخاذ القرارات العسكرية؟
حقوق الصورة: Mykola Holyutyak/Shutterstock.com.

المجال العسكري هو أحد المجالات التي يتطور فيها الذكاء الاصطناعي بسرعة، حيث أن هناك الكثير من الأفكار الواعدة والإمكانات التي يمكن الاستفادة منها، لكن هناك أيضاً جوانب قانونية وأخلاقية يجب أخذها في الاعتبار.

يعتبر الذكاء الاصطناعي أحد المجالات الرئيسية التي تسعى الجيوش للاستثمار فيها، فقد قال وزير الدفاع الأميركي لويد أوستن مؤخراً إنه سيخصص مبلغ 1.5 مليار دولار لمركز الذكاء الاصطناعي التابع لوزارة الدفاع الأميركية خلال السنوات الخمس المقبلة. أضاف أوستن أيضاً أن تحقيق الريادة في مجال الذكاء الاصطناعي سيضمن تفوق الجيش الأميركي ويقدم له مزايا لا يمتلكها أي جيش آخر، سواء في مجال اتخاذ القرارات التي تعتمد على تحليل البيانات، أو التعاون بين الإنسان والآلات.

استخدامات الذكاء الاصطناعي في المجال العسكري

أثبت الذكاء الاصطناعي أن استخدامه في الجيش له تأثير فعال للغاية، ويمكن أن يحدث تأثيراً كبيراً في ميزان القوى على أرض المعركة، يمكن استخدام أنظمة مستقلة مدعومة بالذكاء الاصطناعي لتنفيذ المهام التي تعتبر مملة أو خطيرة. بالإضافة إلى إمكانية تحليل البيانات وتصنيفها لتسهيل وتسريع عملية اتخاذ القرارات.

على سبيل المثال، تتيح القدرة على جمع المعلومات بشكل مستقل بواسطة الطائرات بدون طيار وأجهزة الاستشعار الأرضية والفضائية، زيادة كمية البيانات المفيدة. هذه البيانات يتم تحليلها بسرعة عن طريق أنظمة الذكاء الاصطناعي.

يمكن للذكاء الاصطناعي أيضاً أن يساهم في الكشف عن مخاطر الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية والتعرف عليها ومراقبتها، فضلاً عن تحسين كفاءة الأسلحة المستقلة مثل الطائرات بدون طيار أو الصواريخ الموجهة.

بالإضافة إلى كل هذه الاستخدامات ذات الطبيعة العسكرية البحتة، من المتوقع أن يكون للذكاء الاصطناعي تأثير قوي في مجالات أخرى تفيد الجيوش، مثل التعرف على الصور لتحديد أماكن انتشار القوات المعادية، واعتراض الاتصالات وفك تشفيرها، وتدريب الجنود، وتعطيل قدرات العدو عن بعد.

اقرأ أيضاً: لماذا ينبغي على باحثي الذكاء الاصطناعي ألا يُديروا ظهورهم للقطاع العسكري؟

فوائد الذكاء الاصطناعي في الحروب

بالنسبة للفوائد التي يوفرها الذكاء الاصطناعي في الحروب، يتم التركيز على هذه الجوانب:

السرعة في اتخاذ القرارات

تمثل هذه إحدى المزايا الرئيسية التي يمكن أن يقدمها الذكاء الاصطناعي في الحروب القائمة، حيث يساعد في عملية صنع القرار بسرعة وإجراء تقييم للمواقف بشكل عقلاني وموضوعي حتى في ظل الظروف الفوضوية.

يمكن أن يساعد الذكاء الاصطناعي في الكشف عن الأهداف وتحديدها، ما يشكل عنصراً حاسماً في لحظة الاشتباك ويمكّن الجيش من القضاء على أهداف العدو. كما يساعد في توقع تحركات العدو والقضاء عليه قبل أن يتمكن من تحقيق هدفه.

تحليل البيانات الضخمة

يشير مصطلح البيانات الضخمة إلى الكمية الهائلة من البيانات التي يتم جمعها بواسطة أجهزة مختلفة، هذه البيانات لا يمكن تخزينها أو إدارتها على حاسوب واحد.

إن فهم هذا الكم الهائل من البيانات أمر مستحيل عملياً على الإنسان، لكن أنظمة الذكاء الاصطناعي يمكن أن تساعد في تحليل ومعالجة هذه البيانات بسرعة وبدقة.

تحسين الاستهداف والرؤية

معالجة الصور هي إحدى المجالات التي يساعد فيها الذكاء الاصطناعي بكفاءة، فمع الزيادة في عدد كاميرات المراقبة، يجب تحليل الصور التي يتم التقاطها بهذه الكاميرات. هذا الأمر يتطلب توظيف عدد كبير من الأشخاص، أو الاستعانة بأنظمة الذكاء الاصطناعي لتحليل الصور ومعرفة ما فيها، ويفيد ذلك في عمليات مكافحة الإرهاب وحماية الحدود والمراقبة على جبهات القتال.

اقرأ أيضاً: كيف تستفيد أوكرانيا من تكنولوجيا التعرف على الوجوه في الحرب؟

الدقة

يتمتع الذكاء الاصطناعي بدقة أكبر من البشر، ويمكن أن يعزز كفاءة الآلات والأجهزة والأسلحة المختلفة، ويعود ذلك إلى القدرة على معالجة الكميات الكبيرة من البيانات التي تجمعها أجهزة الاستشعار المختلفة.

القدرة على العمل في كل البيئات

تقوم بعض الدول بمنع قوات العدو من الوصول إلى مناطق معينة ضمن حدودها البرية أو البحرية أو الجوية. يمكن أن تساعد الآلات والأجهزة المدعومة بأنظمة الذكاء الاصطناعي على اختراق هذه المناطق، مثل الطائرات بدون طيار أو السيارات ذاتية القيادة. يساهم ذلك في تقليل تعرض الجنود للمخاطر المترتبة على تنفيذ مثل هذه العمليات.

تحسين الخداع وحرب المعلومات

في هذا العصر، تعتبر المعلومات السلاح الأكثر فعالية في تقويض قدرات العدو، خاصةً في الصراع الدائر بين القوى العظمى التي لا يجب أن تشتبك عسكرياً بشكلٍ مباشر لتفادي توسع الحرب وتحولها لمواجهة عالمية مدمرة.

التلاعب بالمعلومات ضروري لتوجيه مشاعر السكان وحثهم على القيام بأعمال تتعارض مع أهداف حكوماتهم، كما أنه مفيد للتأثير في معنويات الجنود والضباط وجعلهم يعتقدون أن معركتهم فاشلة أو أن خصمهم يمتلك قدرات أكبر.

بفضل أنظمة الذكاء الاصطناعي، يمكن إنشاء بوتات وحسابات وهمية تولد نصوصاً وتجري محادثات قصيرة لإقناع الجمهور المستهدف بتصديق رواية معينة ذات أهمية سياسية أو عسكرية.

يمكن أيضاً استخدام الذكاء الاصطناعي من أجل تحليل بيانات المستخدمين وتصنيفهم ثم استهدافهم بإعلانات قد تكون مفيدة في سياق المعركة.

بالإضافة إلى ذلك، يمكن الاستفادة من الذكاء الاصطناعي في إنشاء صور أو مقاطع صوتية أو مقاطع فيديو مفبركة، لكن يصعب إدراك أنها مفبركة، على غرار تقنية التزييف العميق، يمكن مثلاً يمكن إنشاء مقاطع فيديو مفبركة تظهر استسلام الجنود أو أسر الكثيرين منهم، أو عرض فيديوهات تضخم من قدرات الجيش وأسلحته لإخافة العدو.

هذا الإجراء على الرغم من أنه يعتبر استخداماً غير أخلاقي للذكاء الاصطناعي، لكنه مفيد للغاية في الصراعات الحديثة.

اقرأ أيضاً: لماذا حققت تقنية التزييف العميق انتشاراً واسعاً في 2020؟

مخاطر استخدام الذكاء الاصطناعي في المجال العسكري

لا يوفر استخدام أنظمة الذكاء الاصطناعي في المجال العسكري مزايا فقط، فالمخاطر المترتبة على هذا الاستخدام عديدة وتشمل جوانب أخلاقية وقانونية وتشغيلية واستراتيجية.

من وجهة نظر قانونية، فإن المرجع القانوني الذي يجب أن نأخذه في الاعتبار عندما نرغب في استخدام أسلحة الذكاء الاصطناعي في المجال العسكري هو قانون النزاعات المسلحة أو القانون الإنساني الدولي أو قانون الحرب. ينظم هذا القانون، الذي يعتبر أحد نتائج اتفاقيات جنيف الأربع لعام 1949 والبروتوكولين الإضافيين لعام 1977، الأعمال الحربية ويسعى لتقليل العواقب على الأشخاص الذين لا يشاركون في النزاع المسلح، وخاصةً المدنيين أو الذين توقفوا عن المشاركة في النزاع مثل الجنود الجرحى والأسرى.

لذلك، يجب أن تكون أنظمة الذكاء الاصطناعي المستخدمة في النزاعات المسلحة خاضعة لقانون النزاعات المسلحة والقوانين الدولية. ومن الضروري التحقق مما إذا كانت تمتثل لهذه القوانين وما إذا كانت محظورة بموجب اتفاقيات دولية محددة، مثل اتفاقيات الأسلحة الكيميائية أو البيولوجية، كما يجب التحقق من أن استخدام الأسلحة المدعومة بالذكاء الاصطناعي لن يتسبب في إصابات غير ضرورية أو معاناة لا داعٍ لها. ويجب التأكد من أن هذه الأسلحة لن تؤدي لإلحاق ضرر واسع النطاق وخطير وطويل الأمد بالبيئة الطبيعية، وأنها لن تستخدم في تنفيذ هجمات عشوائية.

اقرأ أيضاً: ما الدور الذي تلعبه أسلحة الذكاء الاصطناعي في الحرب الروسية الأوكرانية؟

هل تستطيع أنظمة الذكاء الاصطناعي الالتزام بالقوانين الدولية؟

يثير استخدام الذكاء الاصطناعي في المجال العسكري أسئلة ونقاشات عديدة، أهم هذه النقاشات لا يتعلق بضرورة تحديد معايير أو قوانين للالتزام بها، بل بمدى قدرة هذه الأنظمة على التقيد بتلك المعايير والقوانين والامتثال لها.

فكيف يمكن لطائرة بدون طيار ذاتية القيادة بالكامل أن تمتثل للقانون الدولي؟ وكيف ستكون قادرة على احترام المبادئ الأخلاقية؟ يعتقد الكثير من الخبراء أن ذلك غير ممكن، لأن الأمر يتطلب تقييماً شخصياً من قبل البشر وليس مجرد جمع لكمية كبيرة من البيانات.

على سبيل المثال، من الصعب التمييز بين الجندي المقاتل والجندي الجريح أو المستسلم، ومن الصعب التمييز بين جندي وشخص مدني إذا كان كلاهما يرتديان ملابس مدنية.

على الرغم من أن أنظمة الذكاء الاصطناعي المستقلة أصبحت متطورة بشكل كبير وقادرة على تقديم أداء جيد، إلا أن استخدامها في النزاعات المسلحة يجب أن يكون متوافقاً مع كل مبادئ القانون الدولي وقوانين النزاعات المسلحة.

اقرأ أيضاً: ما هي الحرب السيبرانية؟ وكيف تتعدى تهديداتها الحروب التقليدية؟

من سيكون المسؤول عن انتهاكات الأنظمة المستقلة؟

هذه أيضاً مشكلة كبيرة. من الصعب أو شبه المستحيل تحديد المسؤول عن الانتهاكات التي تقوم بها الأسلحة المستقلة المدعومة بالذكاء الاصطناعي، فهذه الأنظمة تتطلب عمل مفكرين ومنتجين ومبرمجين ومشغلين.

يعتقد الكثيرون أن مشغلي هذه الأنظمة هم من يجب أن يتحملوا المسؤولية عن الأعمال غير القانونية التي تقوم بها. لكن المسؤولية الحقيقية يجب أن تُعزى إلى كبار القادة العسكريين أو السياسيين الذين قرروا استخدام هذه الأنظمة في الأعمال العسكرية، هؤلاء هم من يجب أن يتحملوا المسؤولية الجنائية عن أي انتهاك خطير محتمل للقانون الدولي الإنساني.

اقرأ أيضاً: هل يشكل الذكاء الاصطناعي تهديداً لوظائف البشر؟

بالإضافة إلى ذلك، يمكن تحميل المسؤولية إلى المصممين والمبرمجين والمُصنعين إذا تبين أنهم قاموا بتطوير هذه الأنظمة من أجل استخدامها بما يخالف القانون الدولي الإنساني، أو من أجل القيام بانتهاكات في أماكن الصراع.

المحتوى محمي