فيروس كورونا يرغمنا على البحث عن الموازنة بين الخصوصية والصحة العامة

3 دقائق
مصدر الصورة: ميك دي باولا/ أنسبلاش

منذ حوالي شهر، وضع الاتحاد الأوروبي الخطوط العريضة لإستراتيجيته الجديدة لحوكمة الذكاء الاصطناعي والبيانات، التي تضمنت -من بين أشياء أخرى- التشديد على استقلالية البيانات، ودعت إلى تدريب الذكاء الاصطناعي في الاتحاد الأوروبي باستخدام بيانات أوروبية فقط، لضمان جودتها وأخلاقية مصدرها. نالت هذه الأسس الاستحسان لتحقيقها الصدارة في حماية خصوصية البيانات ودعم الذكاء الاصطناعي الأخلاقي. ولكن، وفقاً لفاينانشال تايمز، بدأ فيروس كورونا بإرغام المشرعين على إعادة النظر في هذه الأسس.

إذا تم تطبيق هذه القواعد بصيغتها الأصلية، فإنها قد تعرضنا إلى خطر إبطاء عمل العلماء الذين يبذلون أقصى جهد ممكن لتطوير اللقاحات والخوارزميات بسرعة لمواجهة المرض. على الرغم من أن المشرعين لم يتراجعوا بعد عن التوصيات الأصلية، فقد أجلوا موعد تطبيقها الذي كان سيحدد وتيرة عمل الكيانات التشريعية حول العالم.

إن عملية الموازنة الصعبة التي يواجهها مشرعو الاتحاد الأوروبي تعكس مشكلة التجاذب بين خصوصية البيانات والصحة العامة، التي تحاول الكثير من الحكومات والشركات التعامل معها الآن. تمثل إمكانية الوصول السريع إلى البيانات، أينما كانت، مسألة هامة في مكافحة الوباء. غير أن التخفيف من حدة إجراءات خصوصية البيانات كان أيضاً مصدراً للجدل. يقول هو يونج، وهو ناقد صيني شهير وأستاذ في مدرسة الصحافة والاتصال في جامعة بكين: "يجب أن تسأل نفسك، هل بيّن التاريخ، ولو لمرة واحدة، أن الحكومات ستحافظ على الاعتدال والحذر في استخدام أدوات المراقبة بمجرد أن تحصل عليها؟".

وعلى الرغم من أن هذا التجاذب كان موجوداً على الدوام، فإنه ارتفع بحدة بسبب الوضع الطارئ الذي يستوجب احتواء فيروس ينتشر بشكل متسارع. نجحت عدة بلدان في احتواء الوباء، بما فيها الصين وكوريا الجنوبية وسنغافورة، وقد استخدمت هذه البلدان إجراءات مراقبة مشددة لتتبع وعزل الأفراد المصابين. كانت بلدان أخرى مترددة في فرض إجراءات مماثلة، مثل إيطاليا وإسبانيا، وتواجه هذه البلدان حالياً أعداداً ضخمة من الإصابات تفوق قدرة أنظمة الرعاية الصحية فيها على التعامل معها. أما الولايات المتحدة، التي تُعتبر تقليدياً من أكثر البلدان حفظاً للخصوصية، فهي ترزح تحت الضغوط حالياً، فقد بدأ البيت الأبيض مفاوضات مع جوجل وفيسبوك حول استخدام بياناتهما حول تحركات المستخدمين.

إن أهمية الوصول السريع إلى البيانات الجيدة تتجاوز مسألة المراقبة وحسب. على سبيل المثال، يعتمد متنبئو التعلم الآلي الذين يحاولون توقع مسار الفيروس على أكبر قدر ممكن من البيانات الغنية والدقيقة أيضاً. وحالياً، يحاول أحد أهم مختبرات التنبؤ في الولايات المتحدة تجميع بيانات سلوك التصفح والنشاط على منصات التواصل الاجتماعي لمساعدة الحكومة وتعزيز قدرتها على إجراء الاختبارات والتدخل بالشكل المناسب. ولكن المختبر يسعى أيضاً إلى الحصول على بيانات في الزمن الحقيقي لسلوك الشراء بالتجزئة، إضافة إلى السجلات الصحية منزوعة الهوية، الذي يقول إنها ستحسن من التنبؤات إلى حد كبير.

ويشعر المشرعون ومناصرو الخصوصية من السابقة التي يمكن أن يؤدي إليها هذا الوضع. أصدر المنتدى الاقتصادي العالمي بياناً في الأسبوع الماضي يحث الشركات على عدم التخلي عن الإشراف المناسب على الذكاء الاصطناعي لمجرد زيادة سرعة العمل. تقول كاي فيرث باترفيلد، مديرة الذكاء الاصطناعي والتعلم الآلي في المنتدى: "يجب ألا ننسى أن التحديات الأخلاقية الكبيرة المتعلقة بالخصوصية والمسؤولية والتحيز والشفافية في الذكاء الاصطناعي ما زالت موجودة".

وينصح يونج في مدونته بالالتزام بثلاثة مبادئ للتوصل إلى التوازن الصحيح بين الخصوصية والصحة العامة. أولاً، يجب أن يتعامل المشرعون مع حالات انتهاك الخصوصية للصالح العام على أنها الاستثناء، لا القاعدة، كما يجب أن تُبرر هذه الاستثناءات وفقاً لقانون حقوق الإنسان. ثانياً، يجب أن يحدد المشرعون ضمانات الحقوق المدنية الأساسية التي يجب أن تبقى موجودة حتى لو تم إضعاف مستوى الخصوصية. يقول يونج: "على الرغم من أننا قد نضطر إلى تجاوز الخصوصية من أجل الصالح العام، يجب أن ندرك أن الخصوصية نفسها تمثل جزءاً من الصالح العام"؛ لهذا لا يجب على الأفراد أن "يلتزموا بالصالح العام على الدوام". وأخيراً، يجب على المشرعين وضع قيود صارمة على كيفية استخدام المعلومات التي تُجمع أثناء الأزمات. لا يجب استخدام هذه البيانات لأغراض أخرى، ويجب جمعها وتخزينها ومعالجتها تحت إشراف صارم.

يقول يونج: "في بعض الأحيان، نعتقد أن التكنولوجيا ستؤدي لا محالة إلى اضمحلال الخصوصية"، ولكنه يضيف أن القرار الأخير في هذه المسألة يعود إلى البشر، لا التكنولوجيا. "إن خسارة الخصوصية ليست مسألة محتومة، تماماً كما أن إعادة صياغتها ليست مسألة مؤكدة".

المحتوى محمي