أكثر من ثُلث العاملين والطلاب في الإمارات يستخدمون الذكاء الاصطناعي بشكل سري

3 دقائق
أكثر من ثُلث العاملين والطلاب في الإمارات يستخدمون الذكاء الاصطناعي بشكل سري
حقوق الصورة: shutterstock.com/Gunay Rahimova

يعمل الذكاء الاصطناعي على تغيير العالم بطرقٍ مختلفة؛ من تعزيز الإنتاجية والكفاءة إلى إنشاء أشكال جديدة من الفن والترفيه. لكن لا يدرك الجميع كيف يُستخدم الذكاء الاصطناعي في أماكن العمل والفصول الدراسية، خاصةً عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي (Generative AI)، وهو نوع من الذكاء الاصطناعي الذي يمكن أن ينتج أنواعاً مختلفة من المحتوى، مثل النصوص والأصوات والصور والفيديوهات.

وفقاً لمسح حديث أجراه منتدى أوليفر وايمان (Oliver Wyman Forum)، وهو مركز أبحاث تابع لشركة الاستشارات الإدارية العالمية أوليفر وايمان، فإن 39% من العاملين والطلاب في الإمارات العربية المتحدة يستخدمون بالفعل الذكاء الاصطناعي التوليدي، إلّا أن أصحاب العمل والمدرسين لا يعرفون ذلك.

اقرأ أيضاً: القدرة الاقتصادية للذكاء الاصطناعي التوليدي: آفاق مستقبل الإنتاج

الاستخدام السري للذكاء الاصطناعي في الإمارات

يعتبر الاستخدام السري للذكاء الاصطناعي التوليدي في دولة الإمارات العربية المتحدة قريباً جداً من متوسط الاستخدام العالمي، علماً أن المكسيك هي الدولة الأعلى بنسبة 46%، وإيطاليا هي الأدنى بنسبة 34%.

فيما يتعلق بأكثر الصناعات التي يُستخدم فيها الذكاء الاصطناعي التوليدي بشكلٍ سري في الإمارات، أشار المسح إلى أن 45% من العاملين في شركات التصنيع يستخدمون الذكاء الاصطناعي دون أن يبلغوا أصحاب العمل بذلك، وتصل هذه النسبة إلى 38% في شركات التكنولوجيا، و33% في مؤسسات الخدمات المالية.

اقرأ أيضاً: كيف ستربح آبل من ثورة الذكاء الاصطناعي التوليدي؟

تأثير ذلك في مستقبل العمل

بحسب  جاد حداد، وهو رئيس القسم الرقمي في شركة الاستشارات الإدارية أوليفر وايمان في الهند والشرق الأوسط وإفريقيا: "ستتأثر القوى العاملة في المستقبل بشكلٍ كبير وإيجابي من نواحٍ كثيرة بتكنولوجيا الذكاء الاصطناعي التوليدي".

ومع ذلك، فإن معدل تبني استخدام الذكاء الاصطناعي سيختلف بشكلٍ كبير حسب الصناعة والشركة، فهو يعتمد بشكلٍ كبير على السياسات والإجراءات والانفتاح العام. سيكون تمكين الأشخاص الذين يمكنهم استخدام الذكاء الاصطناعي لغرض معين مفتاحاً أساسياً للنمو في المستقبل، وسيؤدي دوراً في تعزيز إنتاجية الموظفين والعمال.

يرى معظم خبراء التكنولوجيا أن لتطبيقات الذكاء الاصطناعي المختلفة، وخاصة الذكاء الاصطناعي التوليدي، مزايا رائعة لمستخدميها؛ مثل تحسين مهارات الاتصال وتعزيز الإبداع وتوفير الوقت والمال وحتى الترفيه. لكن ذلك لا يخلو من بعض التحديات والمخاطر، التي تشمل القضايا الأخلاقية والانتحال والمعلومات الخاطئة والتحيز وغيرها، وهي قضايا مهمة ينبغي التعامل معها بشكل جدّي.

يقول حداد: "ليس من المستغرب أن 39% من العاملين والطلاب في الإمارات العربية المتحدة قد استخدموا الذكاء الاصطناعي سراً، لأنه يمتلك القدرة، عند التعامل معه بشكلٍ صحيح، على تبسيط وتسريع العمليات، بما في ذلك تلك العمليات التي تكون مملة. بالطبع يجب أخذ عوامل الخطر على محمل الجد، لكن كلما تم تجاهل هذه التكنولوجيا من قِبل المؤسسات، زاد الاستخدام السري الذي يمثّل تهديداً خطيراً للأمن السيبراني".

ويضيف: "تحتاج مؤسسات دول مجلس التعاون الخليجي جميعها إلى التفكير بجدية وجرأة في سياسات تبني الذكاء الاصطناعي التوليدي المبكرة الآن، هذا ليس شيئاً يمكننا تجاهله".

اقرأ أيضاً: كيف سيغيّر الذكاء الاصطناعي التوليدي تجربة البحث على جوجل؟

هل يجب الإفصاح عن استخدام الذكاء الاصطناعي التوليدي؟

هذا سؤال مثير للاهتمام، لكن لا توجد إجابة محددة عنه، فالمؤسسات والشركات المختلفة لديها سياسات وتوقعات مختلفة. لكن هناك العديد من الأسباب التي تجعل الإفصاح عن استخدام الذكاء الاصطناعي التوليدي أمراً مفيداً وضرورياً، منها:

  • تجنُّب المشكلات الأخلاقية: مثل السرقة الأدبية أو الخداع أو التحريف، ففي حال استخدم الموظفون والطلاب الذكاء الاصطناعي التوليدي لإنتاج محتوى ليس أصلياً، يجب عليهم الاعتراف بالمصدر وطريقة التوليد. هذا من شأنه إظهار الأمانة والنزاهة الأكاديمية، ويساعد على تجنب العقوبات المحتملة بسبب الانتحال.
  • ضمان مراقبة الجودة والدقة: نماذج الذكاء الاصطناعي التوليدي ليست مثالية، وقد تولّد أخطاءً أو تحيزات أو معلومات مزيفة. إذا كان الموظفون والطلاب يستخدمون الذكاء الاصطناعي التوليدي لإنتاج محتوى مخصص للأغراض المهنية أو التعليمية، يجب عليهم التحقق من جودة ودقة المخرجات قبل استخدامها. سيضمن ذلك أن يكون المحتوى موثوقاً به وجديراً بالثقة.
  • الامتثال للمتطلبات القانونية والتنظيمية: قد تكون لنماذج الذكاء الاصطناعي التوليدية آثارٌ على حماية البيانات أو الملكية الفكرية أو غيرها من القضايا القانونية والتنظيمية، فإن استُخدمت لإنتاج محتوى يتضمن بيانات شخصية أو حساسة، أو قد ينتهك حقوق الآخرين، فيجب عليهم اتباع القوانين واللوائح ذات الصلة. على سبيل المثال، إذا استخدم الموظفون تشات جي بي تي (ChatGPT) للتواصل مع العملاء، يجب عليهم إبلاغ العملاء بأنهم يتحدثون إلى بوت دردشة مدعوم بالذكاء الاصطناعي، والحصول على الموافقة لمعالجة بياناتهم. من شأن ذلك احترام خصوصية العملاء، وتجنب المسؤولية أو العقوبات المحتملة.

لهذه الأسباب، يعتبر الإفصاح عن استخدام الذكاء الاصطناعي التوليدي مفيداً للموظفين والطلاب والشركات والمؤسسات، فهو يضمن تطبيق أفضل المعايير الأخلاقية، ويضمن جودة المخرجات، والامتثال للمتطلبات القانونية والتنظيمية.

اقرأ أيضاً: كيف سنواجه تهديد الذكاء الاصطناعي التوليدي بزيادة نفوذ الشركات التكنولوجية الكبرى؟

لذلك، يجب ألّا تقف الشركات والمؤسسات أمام استخدام موظفيها وطلابها الذكاء الاصطناعي التوليدي، وبدلاً من حظر استخدام هذه التكنولوجيا ومعاقبة مستخدميها، يجب تعليم العاملين والطلاب كيفية استخدامها بطريقة صحيحة ومسؤولة وشفافة، وهذا بالضبط ما بدأنا نسمع عنه. على سبيل المثال، أعلنت جامعة كامبريدج مؤخراً، أنها ستسمح لطلابها باستخدام بوت الدردشة تشات جي بي تي في الدراسة أو التحضير للاختبارات، شريطة أن يفصحوا عن ذلك ولا ينسبون لأنفسهم أشياء كتبها هذا البوت.

المحتوى محمي