من الصعب للغاية أو من شبه المستحيل تطوير أنظمة ذكاء اصطناعي أخلاقية تماماً، وقد نبه الكثير من خبراء التكنولوجيا لهذه المشكلة، وأكدوا أننا بحاجة إلى صياغة مجموعة من المعايير والقواعد الأخلاقية التي يجب أن تلتزم بها كل الدول والشركات لضمان أن تكون كل أنظمة الذكاء الاصطناعي أخلاقية ولا تتأثر بالتحيزات أو الاختلافات بين البشر.
بغياب وجود مثل هذه المعايير، ستكون أنظمة الذكاء الاصطناعي مثل البشر تماماً، أي سنرى أنظمة جيدة وأخرى سيئة. ويمكن أن يؤدي انتشار الأنظمة السيئة واستخدامها إلى حدوث أضرار كبيرة.
لا توجد معايير أخلاقية لتطوير الذكاء الاصطناعي
المشكلة الأساسية التي تواجهنا هي إيجاد طريقة لتحديد ما إذا كانت أنظمة الذكاء الاصطناعي أخلاقية أم لا، إذ لا توجد حالياً معايير تحدد ذلك. والسبب أننا لا نستطيع تعريف الذكاء الاصطناعي الأخلاقي.
نحن البشر قبل الآلات غير متفقين على المعايير الأخلاقية، حيث يختلف تعريف الأخلاق بين الشعوب والثقافات، وحين تسأل الأشخاص عما يعنيه لهم الذكاء الاصطناعي الأخلاقي، ستختلف الإجابة بناءً على اختلاف معاييرهم الأخلاقية وثقافاتهم وعاداتهم وتقاليدهم.
لهذا السبب، قد لا نكون قادرين على تطوير نظام ذكاء اصطناعي أخلاقي يمكن استخدامه في كل مكان، وقد يضطر المطورون لإنشاء أنظمة حسب المعايير الأخلاقية التي تميز كل دولة أو جماعة من البشر.
أيضاً، نحن لا نعرف من يجب أن يكون المسؤول عن تطبيق المعايير الأخلاقية. هل يجب أن يتم ذلك من قبل الحكومات أم من قبل الشركات أم المطورين؟ وكيف يمكن فرض هذه المعايير الأخلاقية؟
اقرأ أيضاً: الذكاء الاصطناعي العاطفي: كيف يمكن لآلة أن تدرك مشاعرنا؟
معضلة الذكاء الاصطناعي الأخلاقي
إن مجرد وضع معايير أو قوانين أخلاقية لتطوير أنظمة الذكاء الاصطناعي لن يكون كافياً، إذ إن هذه المعايير سيكون من شبه المستحيل تطبيقها، نظراً لأن معظم أنظمة الذكاء الاصطناعي عبارة عن ملكية خاصة للشركات أو الأفراد الذين يقومون بتطويرها، وتكون مخفية وسرية تماماً. وليست مفتوحة المصدر.
هذا يعني أننا لن نستطيع أن نتأكد مما إذا كان الذكاء الاصطناعي يعمل بطريقة أخلاقية ويطبق المعايير الأخلاقية، وستكون الطريقة الوحيدة للتأكد من ذلك عن طريق مراقبة القرارات التي يتخذها النظام ونتائجها. هذا الأمر سيكون صعباً للغاية وسوف يتطلب الكثير من الوقت والجهد.
هل يجب معالجة المشكلة الآن؟
ينبغي أن تتم معالجة المشكلات الأخلاقية لأنظمة الذكاء الاصطناعي في أقرب وقت ممكن. وليس من الحكمة تأجيل ذلك، لأن معظم الأنظمة الجديدة يتم تطويرها بالاعتماد على الأنظمة القديمة. فما الذي يعنيه ذلك؟
هذا يعني أننا لو قمنا بتطوير أنظمة ذكاء اصطناعي غير أخلاقية أو لا تعتمد معايير معينة، فإن أنظمة الذكاء الاصطناعي التي سيتم تطويرها في المستقبل ستكون غير أخلاقية أيضاً، ولن تتبع معايير محددة، ما سيؤدي إلى تفاقم المشكلة وزيادة حجمها تدريجياً مع الزمن.
اقرأ أيضاً: 10 أمثلة ناجحة لاستخدام الشركات الذكاء الاصطناعي لتحسين أعمالها وتطويرها
تحديات تطوير أنظمة الذكاء الاصطناعي الأخلاقية
هناك العديد من العوامل التي تجعل تطوير ذكاء اصطناعي أخلاقي صعباً. هذا يعود إلى عدم وجود تعريف واضح للأخلاق وعدم وجود معايير أخلاقية مشتركة بين البشر، لكن يبدو أن المشكلة لا تقف عند هذا الحد، فحتى لو اتفقنا على تعريف ومبادئ ومعايير مشتركة، ستظهر تحديات أخرى علينا التغلب عليها والتفكير في وضع حلول لها، إليك بعض الأمثلة:
الفشل أو الخطأ
حين نقوم بتطوير نظام ذكاء اصطناعي أخلاقي، كيف يمكن أن نضمن عمل هذا النظام كما نريد؟ وفي حال حدوث فشل أو خطأ، ما الذي سيحصل؟ وما الذي يجب أن نفعله؟ من يجب أن يتحمل مسؤولية الأخطاء؟
على سبيل المثال، إذا طورنا سيارات ذاتية القيادة تتمتع بأنظمة أخلاقية، ما الذي سنفعله في حال فشلها وتسببها بحوادث تؤدي لمقتل بعض البشر؟ هل سنعاقب الشركة المصنعة؟ أم مطور نظام القيادة الذاتية؟ هذا بحد ذاته سيشكل معضلة أخلاقية جديدة.
استخدام الأنظمة الأخلاقية لأغراض شريرة
نحن نعلم أن الذكاء الاصطناعي مثله مثل أي تكنولوجيا، تم تطويره لمساعدتنا على أن نعيش حياةً أفضل. هذا الأمر رائع جداً. لكن ماذا لو تم تطوير أنظمة ذكاء اصطناعي مفيدة وأخلاقية، وتم توظيفها للقيام بأعمال غير أخلاقية؟
يشبه الذكاء الاصطناعي تماماً الذكاء البشري. وحتى لو كان يعمل بشكل صحيح وأخلاقي، يمكن أن يستخدم بشكل غير أخلاقي.
من الأمثلة على ذلك الكاميرات الأمنية، هذه الكاميرات المدعومة بالذكاء الاصطناعي صممت بشكل أساسي من أجل الحماية والأمن في الأماكن العامة مثل المطارات. لكنها تُستخدم في بعض الأماكن لمراقبة المواطنين.
البيانات التي تستخدم في تدريب الذكاء الاصطناعي
من أجل تطوير أنظمة ذكاء اصطناعي جيدة، ينبغي تدريبها عن طريق كميات ضخمة جداً من البيانات. لكن البيانات قد لا تكون دائماً جيدة، وقد تؤدي في بعض الحالات إلى تحيزات.
يعد التحيز أحد الاهتمامات الرئيسية في علم الذكاء الاصطناعي. وإذا لم نتمكن من فعل شيء الآن، فإننا بكل تأكيد سنعيد إنتاج كل تحيزاتنا وأخطائنا وعنصريتنا البشرية بشكل مصطنع في آلات ستكرر هذه الأخطاء والتحيزات.
اقرأ أيضاً: هل التحيز الخوارزمي محض صدفة حقاً كما تقول شركات وادي السيليكون؟
ارتفاع معدل البطالة وازدياد التفاوت الطبقي
لقد تبين أن استخدام الذكاء الاصطناعي في بعض مجالات العمل يهدد وظائف البشر. حالياً، يستطيع الذكاء الاصطناعي استبدال العمال والموظفين الذين يقومون بأعمال بسيطة روتينية ومملة تعتمد على التكرار. لكن من المتوقع في المستقبل أن تتمكن أنظمة الذكاء الاصطناعي من استبدال أي شخص في أي وظيفة.
مع تزايد معدل البطالة، سيزداد التفاوت الطبقي في المجتمعات، فكلما زاد عدد العاطلين عن العمل، سيزداد الفقر وقدرة الناس على شراء البضائع والمنتجات. وفي نفس الوقت، سيؤدي الاعتماد على الذكاء الاصطناعي إلى انخفاض تكلفة الإنتاج وزيادة أرباح الشركات. باختصار، ستتسع الهوة بين الفقراء والأغنياء في المجتمع.
اقرأ أيضاً: هل يشكل الذكاء الاصطناعي تهديداً لوظائف البشر؟
صنع القرار
يتميز الذكاء الاصطناعي بالسرعة، ما يجعله أفضل من البشر في اتخاذ القرارات. إن عملية صنع القرار بسرعة قد تكون مفيدة جداً للمجتمع. لكن ما الذي سيحصل إذا اتخذ الذكاء الاصطناعي قرارات سيئة؟ في هذه الحالة، سيتعرض المجتمع لضرر كبير.
إذا قمنا بمنح الذكاء الاصطناعي والآلات القدرة على اتخاذ القرارات بالنيابة عنا. فإننا سنصبح تدريجياً أقل خبرة. انخفاض الخبرة والقدرات التي يملكها البشر سيؤدي إلى تراجع قيمة البشر وزيادة أهمية الذكاء الاصطناعي.
اقرأ أيضاً: هل سيحل الذكاء الاصطناعي محل البشر في اتخاذ القرارات العسكرية؟
وعي الذكاء الاصطناعي وحقوقه
يطرح العديد من المفكرين والفلاسفة والخبراء القانونيين الآن تساؤلات حول طريقة التعامل مع الذكاء الاصطناعي الواعي، هذا الذكاء الاصطناعي يشبه البشر من حيث القدرات العقلية والإدراك والمشاعر. في هذه الحالة، ينبغي أن نمنحه حقوقاً مثل البشر.
الذكاء الخارق
يمكن أن يؤدي ظهور ذكاء اصطناعي خارق أو ذكاء اصطناعي عام إلى إزاحة البشر عن عرشهم الذي تربعوا عليه منذ عشرات آلاف السنين. نحن البشر نسيطر على كوكب الأرض بالكامل ولم تتمكن أي من الأنواع الأخرى أن تتفوق علينا. لكن الذكاء الاصطناعي يمكن أن يغير ذلك ويؤثر على مكانتنا.
ختاماً، هناك حاجة ماسة إلى إنشاء أنظمة ذكاء اصطناعي أخلاقية. ومن أجل القيام بذلك، نحن بحاجة لتعريف الذكاء الاصطناعي الأخلاقي، وتحديد المعايير والقوانين التي يجب تطبيقها، وعلى من يجب تطبيقها وكيفية تطبيقها. يجب أن تكون هذه المعايير عالمية ولا تتأثر بتقاليد وعادات الشعوب المختلفة والتفاوت والاختلافات بين البشر.
اقرأ أيضاً: اقتراح جديد لحل مشكلة عدم قدرة الخوارزميات على التعامل مع المواقف الأخلاقية
بالإضافة إلى ذلك، علينا أن نتغلب على العديد من التحديات. وربما لن نتمكن من ذلك. ربما لن نكون قادرين على تطوير ذكاء اصطناعي أخلاقي أبداً، خاصة أن الكثير من البشر يريدون توظيف التكنولوجيا الحديثة في مجالات شريرة.
في ظل وجود هذه التحديات، لا يجب أن نكون متشائمين، يجب أن تتضافر الجهود ما بين الشركات والحكومات والأفراد للمساعدة على تطوير أنظمة ذكاء اصطناعي أخلاقية قادرة على تحسين حياتنا لأفضل.