أيّهما أخطر: الذكاء الاصطناعي العام أمْ إساءة استخدام الذكاء الاصطناعي الحالي؟

5 دقيقة
أيّهما أخطر: الذكاء الاصطناعي العام أمْ إساءة استخدام الذكاء الاصطناعي الحالي؟
حقوق الصورة: shutterstock.com/RaffMaster

في منشور على مدونته الشخصية، يقول سام ألتمان الرئيس التنفيذي لأوبن أيه آي، إن الشهر الماضي شهد الولادة الثانية لتشات جي بي تي، في إشارة إلى آخر النماذج اللغوية التي أطلقتها أوبن أيه آي، أو 3 (o3)، الذي صدرت نسخة مصغرة منه "أو 3-ميني" (o3-mini)، والتي وصفها بأنها انتقال إلى نماذج قادمة قادرة على إنجاز عمليات محاكمة معقدة. كما صرّح في المنشور نفسه بأن الشركة تقترب من الذكاء الاصطناعي العام، الهدف الأساسي من تأسيس أوبن أيه آي. ويؤكد أن الشركة تعرف كيف تبني الذكاء الاصطناعي العام، ويبشّر بقفزة في إنتاجية الشركات مدفوعة بوكلاء الذكاء الاصطناعي عام 2025.

لا يكتفي ألتمان بذلك، بل يؤكد أن الشركة الآن في طريقها إلى الذكاء الاصطناعي الفائق بمعناه الحقيقي في العالم، والذي سيمكّن من فعل أي شيء، وسيسرّع الاكتشافات العلمية على حد قوله.

على الرغم من الروح المتفائلة، واللحظات الصعبة التي يتذكرها ألتمان، التي يعتبرها قد رسّخت مكانة الشركة في عالم الذكاء الاصطناعي، فإن مثل هذه التصريحات والوعود بالذكاء الاصطناعي العام لن تسعد الجميع في عالم الذكاء الاصطناعي، لا سيما المتخوفين من ماهية الذكاء الاصطناعي العام، دوناً عن إساءة استخدام الذكاء الاصطناعي عموما.

اقرأ أيضاً: كيف يسرّع تشات جي بي تي تطور وكلاء الذكاء الاصطناعي وانتشارها؟

ما هي أبرز المخاوف من الذكاء الاصطناعي العام؟

يُعرف الذكاء الاصطناعي العام بأنه الخطوة التالية من تطوير الذكاء الاصطناعي، وفيه تتمتّع الآلات بمستوى من الذكاء يطابق مستويات التفكير البشري أو تتفوق عليه في مجالات عدة من الأنشطة. ومن المتوقع أن يُحدِث ثورة في الصناعات والمجتمعات البشرية. لكنه في الوقت ذاته يُثير مخاوف عدة حول التحكم والأمان والتحيز والعدالة، بالإضافة إلى المسؤولية المجتمعية، بسبب قدرته الفائقة التي قد تفوق البشر في التفكير.

وحتى يُسمَّى الذكاء الاصطناعي ذكاءً اصطناعياً عاماً، يجب أن يجتاز عدة اختبارات أهمها: اختبار تورينغ، وتحدي مخطط وينوغراد وفيه يتم اختبار النموذج في مجال تفسير المقصود من الكلمات، واختبار القهوة وفيه يُختبر أداء النموذج العملي في العالم الحقيقي، واختبار طالب كلية روبوت حيث يجب أن يحرز النموذج تقدماً في مجالات معرفية متنوعة، واختبار التوظيف لاختبار النموذج في بيئة عمل بشرية، واختبار التفكير الأخلاقي للتعامل مع القيم الإنسانية والأخلاق، والتحدي المتعدد الأوجه في تأكيد الذكاء الاصطناعي العام

لكن، إذا كان الذكاء الاصطناعي العام هو الثورة التكنولوجية التي لم تعرف لها البشرية مثيلاً، فلماذا يتخوف كثيرون منه؟

 يرتبط ذلك بمخاوف عدة أبرزها:

  • فقدان السيطرة: مع تطور الذكاء الاصطناعي العام، قد تصبح الأنظمة أكثر استقلالية وتعقيداً، ما يجعل من الصعب على البشر فهم قراراتها أو التحكم بها. وهذا يُثير تساؤلات حول المسؤولية عن الأفعال التي تقوم بها هذه الأنظمة.
  • التهديدات الوجودية: يمكن أن يتجاوز الذكاء الاصطناعي العام الذكاء البشري، ما قد يؤدي إلى نتائج غير متوقعة قد تكون كارثية، ويمكن أن تتسبب هذه الأنظمة في تهديدات للأمن العالمي عند استخدامها في الأسلحة الذاتية أو الهجمات الإلكترونية.
  • التأثير في سوق العمل: من المتوقع أن تؤدي الأتمتة الناتجة عن الذكاء الاصطناعي العام إلى فقدان واسع النطاق للوظائف، ما يسبب اضطرابات اقتصادية، وتشير التقديرات إلى أن الذكاء الاصطناعي قد يؤدي إلى استبدال 400 مليون عامل بحلول عام 2030.
  • التهديدات للخصوصية والأمان: يمكن أن تؤدي الأنظمة المتقدمة إلى انتهاكات للخصوصية، حيث يمكنها الوصول إلى كميات هائلة من البيانات الشخصية وتحليلها واستخدامها، ما يُثير مخاوف بشأن الاستخدام غير المصرح به والمراقبة الجماعية، خاصة إذا تمتعت هذه النماذج بإمكانات هائلة.

اقرأ أيضاً: هل وكلاء الذكاء الاصطناعي مفيدون حقاً؟ شركات التكنولوجيا تسعى لإقناعنا بذلك

سبق لجيفري هينتون الفائز بجائزة نوبل في الفيزياء مناصفة مع جون هوبفيلد بسبب اكتشافاتهما واختراعاتهما الأساسية التي أتاحت تطبيق مفاهيم التعلم الآلي باستخدام الشبكات العصبونية الاصطناعية، أن حذّر من الذكاء الاصطناعي المتقدم، وقال إن هناك احتمالاً تتراوح نسبته بين 10-20% في أن يقضي الذكاء الاصطناعي على البشرية خلال العقود الثلاثة القادمة كما عبّر عن ندمه لتطوير هذه التكنولوجيا. تركّز أغلب تحذيرات هينتون على أنظمة الذكاء الاصطناعي التي تتفوق على التفكير البشري، وهي الذكاء الاصطناعي الفائق، والذكاء الاصطناعي العام، بوصفهما أكبر تهديدات الذكاء الاصطناعي. فقد استقال العام الماضي من جوجل ليُتاح له التحدث بحرية أكبر حول المخاطر المحتملة للذكاء الاصطناعي في حال وقع بين أيادٍ تُسيء استخدامه.

مخاطر حقيقية ناتجة عن إساءة استخدام الذكاء الاصطناعي

ما يمكن توقعه في مجال الذكاء الاصطناعي فقط هو وتيرة تقدمه غير المتوقعة، وهي ما دفعت أكثر من 1000 شخصية بارزة في مجال التكنولوجيا عام 2023، ومن ضمنهم إيلون ماسك، إلى التوقيع على رسالة مفتوحة تدعو إلى إيقاف الأبحاث في مجال الذكاء الاصطناعي مؤقتاً، وهذا لم يلقَّ صدىً لدى شركات تطوير الذكاء الاصطناعي التي تواصل سباقاً محموماً فيما بينها.

ومن أبرز المخاطر التي تحيط بالذكاء الاصطناعي:

  • الافتقار إلى الشفافية والقدرة على تفسير الكيفية التي تتطور بها نماذج الذكاء الاصطناعي، خاصة التوليدية منها، حتى بالنسبة لمَن يعملون في هذا المجال.
  • فقدان الوظائف بسبب الأتمتة واستخدام نماذج الذكاء الاصطناعي بدلاً عن العاملين الذين يقومون بمهام متكررة. فعلى الرغم من أن الذكاء الاصطناعي قد يكون السبب في طرح 97 مليون وظيفة هذا العام، لكن هذا العدد موضع شك بسبب افتقار الكثيرين للمهارات اللازمة.
  • التلاعب الاجتماعي من خلال خوارزميات الذكاء الاصطناعي، لا سيما باستخدام تقنيات كالتزييف العميق وتوليد الصوت بالذكاء الاصطناعي التي يمكّن أن تؤثّر في الرأي العام وتسهم في دعم توجه على حساب آخر.
  • مخاوف الخصوصية، في ضوء تقنيات التعرف على الوجوه وجمع البيانات واسعة الانتشار، والتي يمكن أن تؤثّر في حرية الأفراد وتنتهك خصوصيتهم.
  • التحيز، بسبب سوء بيانات التدريب التي يتم تدريب النماذج عليها، والتي قد تتسبب في إقصاء مجموعة لصالح أخرى في الترشح للوظائف، أو حتى وضعهم في مجموعات أكثر ترجيحاً لارتكاب الجرائم والمخالفات ما يؤثّر في تقييماتهم عموماً، ويعزّز عدم المساواة في المجتمع.
  • تهديد للمنظومات الأخلاقية القائمة، فإمكاناته تفتح أبواب الغش على مصراعيها في مجالات عدة وأهمها البحث العلمي، بالإضافة إلى الأخطاء التي قد ترافق استخدامه في مجالات حيوية كالصحة والقضاء.
  • التأثير المدمر في حالة تمكنت الأسلحة المزودة بأنظمة الذكاء الاصطناعي من اتخاذ القرارات يوماً ما، مع بقاء هيكلها الأخلاقي المجرد كما هو عليه.

الخطورة الأعلى: أن يصبح الذكاء الاصطناعي واعياً لذاته ولوجوده، ومدركاً لإمكاناته، وهي الميزة التي انفرد بها البشر عبر سنوات طويلة من التطور. مع العلم أن أي كيان يصبح واعياً لذاته عندما يستطيع إعطاء تعريف محدد لمكونات محيطه.

اقرأ أيضاً: هل أصبحنا قريبين حقاً من تطوير الذكاء الاصطناعي العام؟ وماذا ستجني البشرية منه؟

أيّهما أخطر: إساءة استخدام الذكاء الاصطناعي أمْ الذكاء الاصطناعي العام؟

قد تكون إساءة استخدام الذكاء الاصطناعي أكثر خطورة من الذكاء الاصطناعي العام، وذلك بقياس الضرر الذي قد تسببه هذه الإساءة، وهي حالات شاهدناها فعلاً، فبعد طرح تشات جي بي تي، استخدمه الكثير من المحامين في عملهم، ولم يكن الغرض دائماً قانونياً، حيث استُخدِم لاختلاق قضايا وهمية، واستشهادات كاذبة. كما استُخدِم للإساءة للعديد من المشاهير، والتأثير في سير العمليات الانتخابية عبر مقاطع الفيديو والصوت المزيفة، أو صور التزييف العميق. كما أنه سبب العديد من المشكلات عند استخدامه في مجال الرعاية الصحية عبر التشخيص الخاطئ أحياناً. يُذكر أن خوارزمية ذكاء اصطناعي تسببت في استقالة رئيس الوزراء الهولندي وحكومته في أعقاب اتهام مصلحة الضرائب الهولندية لآلاف الآباء بإساءة استخدام أنظمة الرعاية الصحية للأطفال، ومطالبتهم بدفع غرامات مالية لذلك.

من ناحية أخرى، قد لا تكون الثورة التكنولوجية التي يَعد بها الذكاء الاصطناعي العام موضع خلاف، في حال كان متوافقاً مع القيم الإنسانية، ومزوداً باستراتيجيات احتواء (تضمن قدرة البشر على السيطرة عليه دائماً) لضمان سلامتهم، بالإضافة إلى تقييمها بشكلٍ صحيح تحت ظروف مختلفة لضمان قدرتها على التعامل مع السيناريوهات غير المتوقعة أو في حال تطوير نموذج ذكاء اصطناعي منفصل مخصص للسلامة يعمل مراقباً لضمان أن الأنظمة الرئيسية لا تنحرف عن أهدافها الإنسانية. يجب أن يكون هذا النموذج قادراً على فهم المبادئ الأخلاقية والتواصل بوضوح حول قراراته.

اقرأ أيضاً: هل سنصل إلى الذكاء الاصطناعي العام الذي سيتجاوز قدرات البشر خلال 5 سنوات؟

لكن خطورته تكمن في إساءة استخدامه ليصبح الشق الثاني من السؤال "أم إساءة استخدام الذكاء الاصطناعي العام"؟، أو في أن يصبح واعياً لذاته ومزوداً بأدوات وبيانات تفوق قدرة البشر على اللحاق به، أو حين نصل إلى اللحظة التي يشبّهنا فيها هينتون بأطفال في عمر الثالثة، تقف لتواجه كيانات متقدمة للغاية.

المحتوى محمي