في العام 2013، أصدرت خوارزمية حكماً بالسجن لمدة 6 سنوات على إيريك لوميس في ولاية ويسكونسن الأميركية لمحاولته الهرب من شرطة المرور وقيادته سيارة دون موافقة مالكها. لم يعلم أحد حينها كيف طبقت برمجية "كمباس" وهي اختصار الإدارة المتكاملة لتوصيف الجرائم التي يرتكبها المتهمون بهدف إنزال العقوبات البديلة (COMPAS) ذلك، ولا حتى القاضي الذي أصدر الحكم.
ووجدت التحليلات التي أجرتها منظمة "بروبابليكا" (ProPublica)، المتخصصة بالصحافة الاستقصائية بهدف تحديد أخلاقيات الذكاء الاصطناعي؛ أن الذكاء الاصطناعي التنبؤي المستخدم في هذه القضية، والذي يحاول قياس احتمالية ارتكاب الجاني لجريمة أخرى، كان عنصرياً: إذ وجدت دراسة امتدت لعامين وشملت 10 آلاف متهم أن الذكاء الاصطناعي قد بالغ بأحكامه في تقدير احتمال ارتكاب جناية أخرى بين المتهمين ذوي البشرة السوداء، وأساء تقديرها بين المتهمين ذوي البشرة البيضاء. وبعد أن رفضت "المحكمة العليا الأميركية" إعادة النظر في قضية إيريك لوميس، ظلت العقوبة قائمة.
تطبيقات الذكاء الاصطناعي في الحياة العامة
سيكون للذكاء الاصطناعي قدرة أكبر على تغيير مسار حياة الناس مع مرور الوقت، إذ إنه اليوم يتولى جزءاً من القرارات المتعلقة بالتعيين والطرد والسجن، وأي مدارس على الطلاب الالتحاق بها، وكيف يعالج الأطباء مرضاهم، وسوف يؤثر ذلك على الشؤون الخارجية للبلاد والاقتصاد (وخاصة بعد أتمتة الوظائف) والنقل والبنية التحتية، وإن كل تطبيق جديد للذكاء الاصطناعي يمثل فرصة اقتصادية، وهذا جزء من سبب تسمية الاندفاع نحو التطور بـ "سباق الفضاء الجديد". وأبرز البلدان المتصدرة لهذا السباق هي الصين، من خلال ضخ استثمارات بمليارات الدولارات ووضع خطة وطنية طموحة للهيمنة على القطاع. وكذلك الولايات المتحدة، عن طريق التقدم الذي يحرزه كل من القطاع الخاص والأوساط الأكاديمية. وتحاول بلدان أخرى معرفة كيفية مواكبتها للتنمية والتطوير اللذين يحدثان في قطاع الذكاء الاصطناعي؛ حتى في حال لم تكن قادرة على منافسة الولايات المتحدة أو الصين.
أما المملكة المتحدة فقد اتخذت نهجاً مغايراً لتصبح رائدة في سباق الذكاء الاصطناعي. وخلال اجتماع "المنتدى الاقتصادي العالمي" في مدينة دافوس، سويسرا، والذي جرى في شهر يناير/كانون الثاني، أعلنت تيريزا ماي، رئيسة وزراء المملكة المتحدة آنذاك، هدف بلدها بأن يصبح رائداً على مستوى العالم في مجال تطبيق أخلاقيات "الذكاء الاصطناعي". وبعد 3 أشهر، كشفت بريطانيا عن اتفاقيتها في مجال الذكاء الاصطناعي، وهي سياسة شاملة من شأنها أن تؤسس شراكة بين الحكومة والأوساط الأكاديمية وقطاع الذكاء الاصطناعي لغاية مخاطبة أهداف ومخاوف المواطنين والشركات فيما يتعلق بتطبيقات الذكاء الاصطناعي.
أخلاقيات الذكاء الاصطناعي في المملكة المتحدة
وهناك الكثير من الأمور التي يجب التوقف عندها بالحديث عن الذكاء الاصطناعي وأخلاقياته، مثل البطالة التكنولوجية، والذكاء الاصطناعي المماثل للقوى العاملة البشرية والتي تستحدث منتجات عنصرية، ونشر المعلومات الكاذبة، والتطبيقات العسكرية، وتوسيع الفجوة في الثروة. وتركز برمجيات التنبؤ بالجريمة أيضاً على الأحياء التي يقطنها أصحاب البشرة السوداء، الأمر الذي من شأنه أن يكرس التنميط والكراهية واحتمال انتهاك الإجراءات القانونية الواجبة. وخوارزميات البحث في "لينكد إن" تجعل من السهل العثور على الموظفين الذكور المحتملين أكثر من الإناث. وتهدد برامج التعرف على الوجوه في الصين الخصوصية، وتقمع الحريات، (قد تكون رغبة الصين في تخطي المخاوف المتعلقة بحماية البيانات ميزة في سباق الذكاء الاصطناعي). ونظراً للنتائج العكسية، أكدت "جوجل" مؤخراً أنها لن تستخدم الذكاء الاصطناعي في تطوير الأسلحة، على الرغم من أنها سوف تستمر في العمل العسكري في مجالات أخرى.
ترمي المملكة المتحدة من خلال هذه الاتفاقية إلى مخاطبة العديد من هذه المخاوف. وإذا نجحت في موازنة النمو الاقتصادي مع معالجة المخاوف المتعلقة بالخصوصية والثقة وإمكانية الوصول، فيمكنها حينها إثبات أن السلوك الأخلاقي يخدم قطاع الأعمال. وهذا بدوره قد يؤثر على السياسات في "الاتحاد الأوروبي" (بغض النظر عما يحدث مع خروج بريطانيا من الاتحاد) وفي جميع أنحاء العالم.
وعلى طاولة الحوار المستديرة في السفارة البريطانية في مدينة كامبريدج، ولاية ماساتشوستس، التي انعقدت في شهر مايو/أيار، قال ماثيو جولد، المدير العام لـ "مكتب الوسائط الرقمية والإعلامية": "إن الهدف هو جعل الباحثين يأخذون الأخلاقيات بعين الاعتبار في كل خطوة من عملهم، عوضاً عن تأجيلها إلى مرحلة لاحقة. ذلك يبدو أمراً رائعاً، ولكنه أيضاً نظريّ؛ وتوجُهه يبدو غير مجدٍ، نظراً لحجم القطاع ونموه. إذاً، ماذا يعني أن نضع مكوّن الأخلاق أولاً؟ وهل هذا ممكناً؟
تنص هذه الاتفاقية المكونة من 21 صفحة على "بداية الشراكة" بين قطاع الأعمال والأوساط الأكاديمية والحكومة من خلال الاستجابة للتوصيات حول "كيف يمكن للحكومة والقطاع؛ العمل معاً على المهارات والبنية التحتية، وتنفيذ استراتيجية طويلة الأجل للذكاء الاصطناعي في المملكة المتحدة". وتتمحور السياسة الرئيسية حول البحث والتطوير والمهارات والمعرفة الرقمية للعمال البشريين والبنية التحتية وبيئة الأعمال. و"التحديات الكبرى" الأربعة التي ذُكرت في الاتفاقية تتناول الذكاء الاصطناعي بتطبيقاته مع اقتصاد البيانات، والنمو النظيف، والحركة المستقبلية للسلع والخدمات، واحتياجات المسنين في المجتمع. وتغطي أيضاً العديد من الجوانب المهمة وانعكاسات الذكاء الاصطناعي، والتي تتطلب جميعها أخذ الأخلاقيات بعين الاعتبار. وتنص الاتفاقية على أن "ثورة تكنولوجيا الذكاء الاصطناعي قد بدأت بالفعل، وإذا كان تصرفنا اليوم حكيماً؛ فيمكننا قيادتها بجدارة".
يتمحور الجدال الأخلاقي اليوم حول الدور الذي تلعبه البيانات، وكيف يستخدمها الذكاء الاصطناعي، وكيف يتم جمعها. إذ تحتوي مجموعات البيانات على معلومات يمكن عزلها عن طريق متغيرات محددة؛ مثل العمر أو الجنس أو العرق أو المستوى التعليمي، أو تنظيمها وتحليلها بواسطة الذكاء الاصطناعي بطريقة تقدم رؤية معينة وتحدد الاتجاهات. كما أنها تُستخدم في تدريب الذكاء الاصطناعي على أداء هذه المهام بشكل أفضل. وغالباً ما تحتوي مجموعات البيانات التي تجمعها الشركات الخاصة أو الباحثون على معلومات أكثر (مثل السجلات الطبية والمعلومات المصرفية وتاريخ الشراء)، والتي قد لا يستخدمها الذكاء الاصطناعي في قطاعات أخرى، بحيث يعيق بحوث الأمراض، وبرمجة الخوارزميات وتطبيقها، وفهم الاتجاهات المالية، والرؤية في المسائل الأخرى العميقة. والأسوأ من ذلك، يمكن أيضاً إساءة استخدام البيانات، ولك أن تتخيل فضيحة شركة "كامبريدج أناليتيكا" باستخدامها تقنيات أكثر تطوراً.
منذ العام 2010، منحت الحكومة البريطانية إمكانية الوصول المفتوح إلى بياناتها العامة، وكلفت الهيئات العامة الأخرى بفعل الشيء نفسه. وتدعو الاتفاقية في المملكة المتحدة إلى استخدام ائتمان البيانات (ويسمى أيضاً "التعاون القائم على البيانات")، وهي طريقة تعمل على تسهيل تبادل البيانات المفيدة بين الحكومة والقطاعات الأخرى. والغاية هي توفير الوصول إلى بيانات جديدة، وتدابير تحفيزية لمشاركة البيانات، وضمان استخدام هذه البيانات للصالح العام. على سبيل المثال، يمكن أن يوفر ائتمان البيانات معلومات جغرافية وصحية وديموغرافية وسياسية بالغة الأهمية ومعلومات أخرى عن اتجاهات الهجرة؛ للعديد من الباحثين والشركات بالإضافة إلى الحكومة للمساعدة في صياغة السياسات. ويجب أن تتماشى أي استراتيجية بيانات مع أنظمة حماية البيانات العامة للاتحاد الأوروبي التي تم الإقرار بها مؤخراً (إن لدى المملكة المتحدة قانون حماية البيانات الخاص بها الذي تم تطويره مؤخراً) بالإضافة إلى الحفاظ على ثقة العميل.
ويشمل الحفاظ على الثقة أيضاً تناول مشكلة تجانس المبرمجين والذي يسهم إيجاباً في قضايا مثل قضية إيريك لوميس. إذ كتب كل من ديم ويندي هول، أستاذ علوم الحاسوب، والخبير جيروم بيسيتي، في التوصيات التي نقلوها إلى حكومة المملكة المتحدة "إن مساهمة مجموعة متنوعة من المبرمجين تقلل من خطر التحيّز المتضمن في الخوارزميات، وتقدم نتائج أكثر عدلاً وأعلى جودة. في الوقت الحالي، لا تمثل القوى العاملة العدد الأكبر من السكان. وفي الماضي، ثَبت أنّ التهميش القائم على النوع والعرق يؤثر على عدالة مخرجات العمليات التكنولوجية. إذا لم يتمكن الذكاء الاصطناعي في المملكة المتحدة من تحسين تنوع القوى العاملة، فسوف يتم تقويض قدرة ومصداقية هذا القطاع "، ووجد تقرير من "معهد تشارترد لتقنية المعلومات" (Chartered Institute for IT)، أن الغالبية العظمى من المتخصصين في تكنولوجيا المعلومات في المملكة المتحدة هم من الذكور، والأصحاء، ودون عمر الـ50، و17% من الإناث، و21% تجاوزوا الـ 50 عاماً، و8% من ذوي الاحتياجات الخاصة. كما أن القوى العاملة في القطاعات الرقمية والإعلامية والإبداعية غير متكافئة من حيث التركيبة الديمغرافية، وفي النهاية، وفقاً لهول، فإن هذا يخلق مشكلة كبيرة: "تحيز في المدخلات وتحيز في المخرجات". وفي حين أن بعض الشركات الأميركية تمكنت من تحسين التنوع، إلا أنها لم تحقق سوى بعض التأثير: ففي العام 2017، شغل العمال ذوو البشرة السوداء نسبة 3.1% فقط من الوظائف في أكبر ثماني شركات التكنولوجيا الأميركية.
وهكذا، تهدف اتفاقية المملكة المتحدة إلى خلق قوى عاملة أكثر تجانساً. وسيعمل "معهد أدا لوفلايس" (Ada Lovelace Institute)، الذي أسس حديثاً مع الحكومة على تعزيز التنوع، وسيقدم برنامج الزمالة الجديد لـ "معهد آلان تورنغ" ( Alan Turing Institute)، ألف مقعد لدراسة الدكتوراه المتعلقة بالذكاء الاصطناعي والتي تدعمها الحكومة الأميركية. كما ستعمل المملكة المتحدة على مضاعفة عدد التأشيرات الممنوحة للمواهب الاستثنائية من الفئة الأولى، وتسهل على حاملي هذه التأشيرة التقدم للحصول على إقامة طويلة الأجل. إن التنوع في صفوف المبرمجين والباحثين يؤدي إلى تقديم منتجات وخدمات لمختلف الخصائص السكانية، ويؤدي كذلك الأمر إلى برمجة خوارزميات التي تمثل لون البشرة والنوع.
تعزيز التعليم في مجال تكنولوجيا الذكاء الاصطناعي
ويساعد الاستثمار في تعليم الأطفال والبالغين أيضاً على إتاحة الفرص لمزيد من الناس للانخراط في مجال الذكاء الاصطناعي. وستنفق المملكة المتحدة 406 مليون جنيه استرليني (حوالي 533 مليون دولار) لتعزيز التعليم في مجال العلوم والتكنولوجيا والهندسة والرياضيات، وتدريب حوالي 8 آلاف مدرس في علوم الكمبيوتر، وتأسيس المركز الوطني لتعليم علوم الحاسوب. ويمكن للبالغين المشاركة في برنامج إعادة التدريب الوطني، الذي سيخصص مبلغاً قدره 36 مليون جنيه إسترليني (حوالي 47 مليون دولار) للتدريب على المهارات الرقمية، و40 مليون جنيه إسترليني (حوالي 52 مليون دولار) للتدريب في مجال التشييد، وهو توليفة من العمال الأذكياء والبنية التحتية الوطنية. إن المملكة المتحدة تواجه صعوبة في تأمين المساكن، ومن المتوقع أن تتأثر الوظائف مثل البناء والتشييد بالبطالة التكنولوجية.
تخاطب هذه الاتفاقية أيضاً المخاوف حول إمكانية أن يحل الذكاء الاصطناعي محل العمال البشريين، وخاصة العمال الأقل مهارة. ويقول جولد بأنهم "على ثقة بأن الوظائف الجديدة سوف تكون متوفرة"، لكن الجدال لا يزال قائماً حول ما إذا كان ذلك سيحدث حقاً أم لا، وحول نوعية تلك المناصب الجديدة التي سوف يخلقها الذكاء الاصطناعي، وكم عددها، ومن سيكون مؤهلاً لها. وأقر جولد بأن "الوظائف الجديدة لن تذهب بالضرورة إلى أولئك الذين فقدوها، ونحن نحاول تجنب خلق فروقات طبقية". إن فجوة الثروة تلك موجودة بالفعل، وعلى الرغم من أن انعدام المساواة في الدخل أقل وطأة في المملكة المتحدة منها في الولايات المتحدة، فإن الأمر يزداد سوءاً اليوم، وربما من الممكن تضييقها، أو على الأقل ضمان عدم تفاقمها عن طريق تحسين نوعية الوصول.
إن المملكة المتحدة تحرز تقدماً في مجال شبكة الجيل الخامس وتقنية الألياف البصرية، فضلاً عن الخطط التي تضعها لتوفير اتصال واسع النطاق وسريع للجميع. (في الوقت الحالي، لدى 95% من المواطنين في المملكة المتحدة إمكانية ذلك الاتصال). وستكون إمكانية الاتصال بالإنترنت التي يتم توفيرها بسرعة 10 ميغابت في الثانية أو أكثر قانونية في المملكة المتحدة بحلول العام 2020.
إن صياغة سياسات أخلاقيات الذكاء الاصطناعي تتطلب أيضاً معالجة قضية المسؤولية المعقدة، خاصة في حال حدوث خلل في تطبيقات الذكاء الاصطناعي، أو حدوث استقلالية باتخاذ قرار أو إجراء. وقد حضر أرييل ولانو، المدير الإداري لشركة "فينسيرف إكسبيرتس" (Finserv Experts)، وهي شركة استشارية تعمل على تكييف تقنيات الذكاء الاصطناعي لصالح الشركات، جلسات الأدلة، وهي الاجتماعات التي تقدم خلالها لجان الخبراء بيانات وتصورات ذات صلة إلى الإدارات الحكومية المختلفة؛ والتي ساعدت في توجيه الاتفاقية. وكانت الغاية من تلك الجلسات هي التأكيد على أن المساءلة هي أهم جانب من جوانب أنظمة الذكاء الاصطناعي.
إن التقدم البطيء في المعايير القانونية يعني أن القوانين والسوابق يجب أن تواكب دائماً التقدم الذي يحدث في مجال الذكاء الاصطناعي. إذ لا تتضمن العديد من القوانين بنوداً خاصة بتطبيقات الذكاء الاصطناعي، ولا سيما ذلك القادر على اتخاذ قرارات مستقلة. ومع ذلك، يقول ولانو: "إن الذكاء الاصطناعي لا يجعل الناس تطبق القوانين القائمة"، وأشار، على سبيل المثال، إلى "التسعير الديناميكي" الذي تطبقه شركات الطيران، والذي يستخدم المعلومات الشخصية لجعل أسعار التذاكر مخصصة. وقد حقق مكتب "الكارتل" الاتحادي الألماني، في رفع أسعار تذاكر طيران "لوفتهانزا" في العام 2017، بنسبة 25 إلى 30% بعد توقف منافسة طيران "برلين" مباشرة، وقد رَفض تفسير "لوفتهانزا" بأن الأسعار يتم تحديدها بواسطة خوارزميات غير مسؤولة عن اتباع القانون. ورغم ذلك، لم يفتح مكتب "الكارتل" قضية رسمية بهذا الصدد، وأضاف: "إن الشركة التي تستعين بتقنيات الذكاء الاصطناعي تتخذ قراراً بالإعلان أنها مسؤولة، حتى لو كان الذكاء الاصطناعي مستقلاً باتخاذ قرارات غير أخلاقية".
على الرغم من أن الذكاء الاصطناعي، وأولئك الذين يستخدمونه، لا يمكنهم الالتفاف على الأنظمة الحالية، إلا أن الافتقار إلى التوجيهات من شأنه أن يثير تحديات كبيرة. مثلاً، من الذي يجعل القواعد التي تنطبق على التكنولوجيا جديدة وقوية حتى لا نفهم كل ما تفعله؟ إن الحكومات والقطاعات تضعان معايير للتقنيات المستخدمة في الرعاية الصحية والأجهزة الطبية والإجراءات المصرفية، ولكن هذا لم يحدث بعد بالنسبة للذكاء الاصطناعي: يقول ولانو، والذي يعمل ضمن مجموعة تعمل على تطوير تلك المعايير: "حتى إذا كان لديك شيء أخلاقي، لا يمكنك الحصول على الموافقة لاستخدامه لأنه لا يوجد معايير لتطويره". هذه الخطوة المهمة هي التي تفرض الوتيرة التي يمكن للشركات من خلالها بدء تنفيذ تطبيقات الذكاء الاصطناعي؛ إنها تشبه الشركات الخاصة التي تدور حول نفسها لسنوات، بينما تضع إدارة الطيران الاتحادية أنظمة الطائرات المسيرة من دون طيار التجارية. ويقول ولانو: "إن الترخيص لاستخدام الذكاء الاصطناعي يستغرق وقتاً أكثر وكلفة أكبر من تقديم الحلول التي تسهل استخدامه ومن دون تحقيق المعايير؛ لا يمكن لمهندسي المعلوماتية الذين يضمنون الأداء الوظيفي والأمان والالتزام بالنسبة للأنظمة التكنولوجية الجزم بأن الحلول المطبقة على تقنيات الذكاء الاصطناعي فعلاً آمنة". وأشار ولانو إلى نظام تقنية بلوك تشين التابع لـ "مصرف أميركا"، الذي استغرق 18 شهراً لتطوير نموذج البرنامج التجريبي لأنه افتقر إلى المعايير الأساسية للموافقة عليه.
لجنة الحوكمة العالمية المعنية بتطبيقات الذكاء الاصطناعي
لمعالجة هذه المشاكل، فإن الاتفاقية تدعو إلى تشكيل لجنة الحوكمة العالمية المتعلقة بتطبيقات الذكاء الاصطناعي، والتي اجتمعت مؤخراً في جلستها الأولى من أجل التخطيط ووضع الاستراتيجية. وستحدد اللجنة معياراً يمكن الرجوع إليه ويمكن قياس الحلول المتبعة على أساسه"، كما أوضح ولانو. وستكون جميع التوجيهات التي تنشرها اللجنة قابلة للاختبار: إذ سيكون المطورون قادرين على تقييم الحلول والتحقق من أنها تتبع التوجيهات؛ وسيؤدي ذلك من تسريع العملية، وبالتالي يمكن تطبيق الحلول.
إن الاتفاقية تعالج الكثير من المخاوف التي تتعلق بتطبيقات الذكاء الاصطناعي، مثل تعزيز القوة العاملة المتنوعة، ووضع معايير وإجراءات للتنظيم، ومعالجة آثار البطالة التكنولوجية، وتوفير الاتصال على نطاق واسع ولجميع المواطنين، وحماية البيانات الخاصة، وتحفيز البحث والتطوير، وتحصين الاقتصاد. في الواقع، هناك ما يكفي من الأمور التي تهدف الاتفاقية إلى معالجتها لدرجة يصعب تصديقها. إذ هل يمكن أن تتعايش الممارسات الأخلاقية مع الرأسمالية المتفشية في القطاع الأكثر ربحية وديناميكية في العالم؟
يقول كينتارو توياما، وهو أستاذ مساعد في كلية المعلوماتية بجامعة "ميشيغان"، ومؤلف كتاب "البدع الغريبة: إنقاذ التطور الاجتماعي من هيمنة التكنولوجيا" (Geek Heresy: Rescuing Social Change from the Cult of Technology): "إن التركيز على الأخلاقيات "يبدو عظيماً من الناحية النظرية، ولكن، عندما تبدأ السياسات بالنوايا الحسنة، فإن تلك النوايا تميل إلى الضمور في ظل الجهود المستمرة من جانب جماعات الضغط والسياسيين "الأقل نبلاً". ومن المؤكد؛ أن الاتفاقية تبرر الشكوك، وليس من الصعب تخيل الشركات تبحث عن طرق لاستغلال النظام أو الالتفاف عليه. ويقول توياما: "إن احتمال إبقاء التركيز على الأخلاقيات سيكون ضئيلاً".
المسؤولية الأخلاقية لاستخدامات الذكاء الاصطناعي في أميركا
يبدو التفاؤل فيما يخص الاتفاقية ساذجاً بقدر ما هو مطمئن، إذ يمكن التخلي عن بعض من الأخلاقيات البسيطة بمرور الوقت، وربما لن تتطابق الحقيقة مع الرؤية، ولكن كما يرى جولد، فإن الاتفاقية هي "الإعلان عن النوايا"، وهي خطوة أولى مهمة. إن الحكومة الأميركية لا تتحدث عن أخلاقيات الذكاء الاصطناعي، وفي مقابلة مع مجلة "وايرد" (Wired)، أشار مايكل كراتسيوس، نائب مساعد الرئيس لشؤون سياسات التكنولوجية، إلى أن إدارة ترامب تخطط للتدخل بأقل ما يمكن في مجال تطوير الذكاء الاصطناعي؛ حتى لا تعرقل نموه. إذ إن لدى "مكتب الولايات المتحدة للعلوم والتكنولوجيا" الآن 45 موظفاً فقط؛ مقارنة بـ 135 موظفاً في عهد الرئيس السابق باراك أوباما، ما سيؤدي إلى إبطاء تنفيذ السياسة. وما يثير القلق أكثر، هو عدم قدرة الإدارة على فهم الإجراءات والاتجاهات في العلوم والتكنولوجيا، بالإضافة إلى انعكاساتها. إن تجاهل الأسئلة الأخلاقية وانعكاسات تطبيقات الذكاء الاصطناعي يمكن أن يقودنا إلى المستقبل غير مرغوب به. ويقول توياما: "نحن في الولايات المتحدة يجب أن نكون متساوين في التسلح بشأن هذه القضايا، ولكن بصرف النظر عن الأصوات المناوئة، فإن العديد من شركات التكنولوجيا الكبرى رصدت تلك المسائل، وتم إنجاز القليل منها فقط".
ونظراً لأن الولايات المتحدة تخلت عملياً عن مسؤوليتها الأخلاقية في هذا القطاع، والصين بدورها لا تبدو مهتمة كثيراً بذلك، فيجب علينا أن ندعم نجاح المملكة المتحدة. يبدو أندمج الأخلاقيات والنمو الاقتصادي سيصبح أمراً واقعاً ويحمل في طياته الكثير من الابتكار في نفس الوقت؛ نظراً لانعدام أهمية أيهما يتأثر بالآخر. إذ يستخدم بعض الناس الطاقة الشمسية لأن كلفتها أقل، وليس لأنهم يهتمون بالبيئة، ولكن النتيجة هي نفسها. ربما بعد أن يتضح أن الجمع بين الأخلاق والاقتصاد يعني الفوز لجميع الأطراف، سنرى المزيد من الاهتمام.
من خلال معرفة ما بين يدينا حول انعكاسات الذكاء الاصطناعي، ربما سنتخذ قرارات مختلفة حول حماية البيانات، ووسائل التواصل الاجتماعي، والخصوصية إذا كان بإمكاننا التراجع في الوقت المناسب. ولكن بما أن كل جيل من التكنولوجيا هو السبب بظهور الجيل التالي، وله تأثير لا رجعة فيه على المجتمع، فإن التراجع عندما يتعلق الأمر بالذكاء الاصطناعي هو من ضرب الخيال. ولكن نحن مَن نقرر ماذا سيحدث وكيف سيحدث، ويتضمن ذلك معرفة كيفية تطوير واستخدام أخلاقيا الذكاء الاصطناعي من أجل مصلحة الجميع، بالإضافة إلى تحمل مسؤولية أخطائنا. إن لدى المملكة المتحدة فرصة قيادة الجيل التالي من شركات التكنولوجيا والأبحاث والسياسات الحكومية بسبب الانتباه إلى أخلاقيات الذكاء الاصطناعي في المملكة المتحدة. ونحن نأمل أن تحقق الاتفاقية الأمر الذي وُضعت لأجله.