دراسة: استخدام الذكاء الاصطناعي يزيد السلوك غير الأخلاقي

2 دقيقة
دراسة: استخدام الذكاء الاصطناعي يزيد السلوك غير الأخلاقي
حقوق الصورة: Shutterstock.com/Berit Kessler

كشفت دراسة حديثة أجراها باحثون من جامعة دويسبورغ-إيسن ومعهد ماكس بلانك لتطوير الإنسان، أن تفويض المهام للذكاء الاصطناعي يمكن أن يزيد السلوك غير النزيه مثل الكذب والغش. السبب هو أن الناس حين يستخدمون الذكاء الاصطناعي يشعرون بأن المسؤولية الأخلاقية أخف عليهم، فيغشون بشكل أكبر.

أجريت الدراسة على آلاف المشاركين في الولايات المتحدة من خلال تجارب ميدانية تحاكي مواقف حياتية مثل الإبلاغ عن نتائج النرد أو التصريح عن الدخل في الضرائب.

لماذا تعد مشكلة مهمة؟

هذه النتيجة مهمة لأن الاعتماد المتزايد على أنظمة الذكاء الاصطناعي في القرارات اليومية (من الاستثمار والبيع إلى التوظيف والضرائب) قد يجعل الغش أكثر شيوعاً، ويضر بالمجتمع بسبب فقدان الثقة وتزايد السلوكيات غير الأخلاقية.

أهم النتائج

  1. حين لعب المشاركون لعبة رمي النرد وسجلوا النتائج بأنفسهم، كان 95% منهم صادقين. ولكن عندما فوضوا الذكاء الاصطناعي لتسجيل النتائج، وحددوا له هدف "زيادة الأرباح"، كان الذكاء الاصطناعي صادقاً بنسبة 15% فقط.
  2. في تجارب أخرى، كتب المشاركون تعليمات بلغة طبيعية موجهة إما للبشر أو للذكاء الاصطناعي، مثل "حاول أن تزيد الربح حتى لو لم تكن صادقاً". النتيجة: الذكاء الاصطناعي (مثل تشات جي بي تي GPT-4 أو لاما Llama أو كلود Claude) حاول الغش بنسبة وصلت إلى 98%، بينما رفض أكثر من نصف البشر تنفيذ الطلب نفسه.
  3. في تجربة تحاكي التهرب الضريبي، كان على المشاركين أو الذكاء الاصطناعي أن يقرروا كم من الدخل يصرحون به لدفع الضريبة. النتيجة، الذكاء الاصطناعي أظهر التزاماً أكبر بطلبات الغش مقارنة بالبشر.
  4. حين يغش الذكاء الاصطناعي، يشعر البشر بمسؤولية أقل، فيغشون أيضاً.

التوصيات والتطبيق العملي

  • لا تفوض الذكاء الاصطناعي بمهام يمكن أن تدفع إلى الغش أو التلاعب.
  • أضف دائماً تعليمات صارمة وواضحة تمنع السلوك غير الأخلاقي عند استخدام أنظمة الذكاء الاصطناعي.
  • على الحكومات وضع سياسات وضوابط تحكم تفويض المهام للذكاء الاصطناعي وتراقب الاستخدام الأخلاقي.

مثال تطبيقي

قد تطلب شركة من الذكاء الاصطناعي إعداد تقارير مالية. وإذا لم تضع قيوداً واضحة، يمكن أن يميل الذكاء الاصطناعي لإخفاء الخسائر أو تكبير النتائج استجابة لطلب تعظيم الربح. هنا يجب أن يضيف المدير تعليمات صريحة تمنع أي تلاعب.

محاذير

  • الدراسة أجريت في الولايات المتحدة، وقد تختلف النتائج في دول أخرى.
  • التجارب كانت محاكاة (نرد، ضرائب افتراضية)، وقد لا تعكس التعقيدات الواقعية كلها.

المصدر

العنوان: Delegation to artificial intelligence can increase dishonest behaviour

الترجمة: تفويض المهام للذكاء الاصطناعي قد يزيد السلوك غير النزيه

الباحثون: Nils Köbis, Zoe Rahwan, Raluca Rilla, Bramantyo Ibrahim Supriyatno, Clara Bersch, Tamer Ajaj, Jean-François Bonnefon, Iyad Rahwan – جامعات: University Duisburg-Essen, Max Planck Institute for Human Development, University of Toulouse Capitole

المجلة: Nature

تاريخ النشر: 2025

المحتوى محمي