كيف ستحافظ آبل على خصوصية المستخدمين بعد تعاونها مع أوبن أيه آي؟

5 دقيقة
كيف ستحافظ آبل على خصوصية المستخدمين بعد تعاونها مع أوبن أيه آي؟
حقوق الصورة: shutterstock.com/Owlie Productions

أعلنت شركة آبل في مؤتمرها الأخير الخاص بالمطورين شراكة مهمة مع شركة أوبن أيه آي، تنصُّ على استخدام تكنولوجيا الذكاء الاصطناعي التوليدي التي تقدّمها شركة الذكاء الاصطناعي الناشئة في منتجاتها الأحدث، وفي مقدمتها هاتف آيفون 16 من خلال ذكاء آبل (Apple Intelligence)، في خطوة مهمة جداً لشركة يستخدم منتجاتها أكثر من 1.4 مليار مستخدم حول العالم، وتُعد ّمن أبرز الشركات التي كان الجميع يريد أن يعرف متى ستدخل سباق الذكاء الاصطناعي وكيف؟

ومع ذلك، فإن هذه الخطوة لاقت اعتراضاً من إيلون ماسك، الذي وصف صراحة أدوات الذكاء الاصطناعي التي تعمل بتكنولوجيا شركة أوبن أيه آي بأنها برامج تجسس، ولم يكتفِ بذلك، بل أعلن أيضاً أنه سيحظر إدخال أجهزة آبل إلى مباني شركاته إذا دمجت الشركة تكنولوجيا شركة أوبن أيه آي على مستوى أنظمة تشغيل منتجاتها.

جعل ذلك آبل تسارع إلى تأكيد أن نظام الذكاء الاصطناعي الخاص بها "ذكاء آبل" سيقدّم طريقة جديدة لحماية بيانات المستخدمين، حيث تعمل على تحديد المهام الأساسية التي يمكن معالجتها على الأجهزة.

أمّا بالنسبة للمهام الأكثر تعقيداً، فقد طوّرت الشركة نظاماً قائماً على السحابة يُسمَّى (الحوسبة السحابية الخاصة Private Cloud Compute، اختصاراً بي سي سي PCC) يعمل على خوادمها السحابية، والتي تقول الشركة إنها طريقة جديدة مبتكرة لحماية الخصوصية في عصر الذكاء الاصطناعي الناشئ، ومعيار جديد تماماً للخصوصية في الذكاء الاصطناعي.

فهل ما تذكره الشركة صحيح؟ وكيف تتم مقارنة استراتيجيتها المتعلقة بالخصوصية في الذكاء الاصطناعي مع طرق المعالجة الهجينة الموجودة في هواتف مصنعّي الأجهزة الأخرى مثل شركتي سامسونج وجوجل؟

اقرأ أيضاً: كيف سيُغيِّر الذكاء الاصطناعي تصميم هواتف آيفون وطريقة استخدامها؟

كيف تصفُ شركات الهواتف استراتيجيتها المتعلقة بخصوصية المستخدم؟

من خلال نظام الحوسبة السحابية الخاصة بها، صممت آبل هندسة ذكاء اصطناعي جديدة من البداية إلى النهاية وامتداداً لسحابة خاصة بهاتف آيفون الخاص بالمستخدم، ما يسمح بمزيدٍ من التحكم في البيانات. ومن الناحية العملية يعني هذا أن آبل يمكنها إخفاء أصل مطالبات الذكاء الاصطناعي، ومنع أي شخص حتى الشركة نفسها من الوصول إلى بيانات المستخدم، وهو ما يمكن وصفه من الناحية النظرية بأسلوب التشفير من طرف إلى طرف للذكاء الاصطناعي السحابي.

الهدف من هذا النظام هو ألّا يقل أمان استخدام الذكاء الاصطناعي، حتى في خوادمها السحابية، عن أمان الهاتف، وهو ما يختلف كُلياً عن الطريقة التي يتبعها باقي المنافسين مثل شركة سامسونج وجوجل اللتين تستخدمان ما يمكن وصفه بالذكاء الاصطناعي الهجين (Hybrid AI)، وفيه تعمل على معالجة بعض عمليات الذكاء الاصطناعي محلياً في هاتف المستخدم والاستفادة من السحابة عند الضرورة لمعالجة المهام أو المطالبات الأكثر تقدماً.

تتمثل الفكرة في توفير أكبر قدرٍ ممكن من الخصوصية مع تقديم وظائف الذكاء الاصطناعي القوية، وهذا يعني أنه من المحتمل أن نرى بعض ميزات الذكاء الاصطناعي المتطور للغاية، ليس فقط في الهواتف ذات المواصفات المتقدمة، بل حتى على الهواتف الذكية متوسطة المواصفات.

اقرأ أيضاً: ما أبرز ميزات الذكاء الاصطناعي القادمة لنظام التشغيل آي أو إس 18 (iOS 18)؟

هل الذكاء الاصطناعي الهجين كافٍ للمحافظة على خصوصيتك؟

قد يشكّل أسلوب الذكاء الاصطناعي الهجين مخاطر لأن بعض البيانات تُرسل إلى السحابة دون مستويات المساءلة التي تقدّمها آبل مع نظامها الجديد، فمع الذكاء الاصطناعي الهجين من الضروري أن تصدر بعض البيانات عن هاتف المستخدم لتُعالج في السحابة، ما يجعلها أكثر عرضة للاختراق أو سوء الاستخدام. ومع ذلك تذكر جوجل وشركاؤها أن الخصوصية والأمان هما محوران رئيسيان لنهج الذكاء الاصطناعي لنظام التشغيل أندرويد.

كما يقول نائب الرئيس التنفيذي ورئيس البحث والتطوير في شركة سامسونج وون جون تشوي (Won-joon Choi): "إن الذكاء الاصطناعي الهجين المستخدم في هواتف الشركة يوفّر للمستخدمين التحكم الكامل في ما يشاركونه وما يحافظون على خصوصيته".

أما جوجل فتقول إن مراكز البيانات الخاصة بها مصممة بتدابير أمنية قوية، بما في ذلك الأمان المادي وضوابط الوصول وتشفير البيانات، وتُضيف أنه عند معالجة طلبات الذكاء الاصطناعي في السحابة تبقى البيانات ضمن بنية مركز بيانات جوجل الآمنة، ولا ترسل الشركة معلومات المستخدمين إلى أي أطراف ثالثة.

اقرأ أيضاً: بماذا يختلف نهج آبل في الإنفاق على الذكاء الاصطناعي عن الشركات الأخرى؟

وفي الوقت نفسه لا تُدرب أنظمة الذكاء الاصطناعي في الهواتف على بيانات المستخدم، بحسب شركة سامسونج، التي تُشير بوضوح إلى أن وظائف الذكاء الاصطناعي التي تعمل على الهاتف يُرمز لها برمز جالاكسي أيه آي (Galaxy AI)، ما يجعلها خارج أنظمة التدريب مع تقديم خيار جديد للأمان والخصوصية يُسمى إعدادات الذكاء المتقدم (Advanced Intelligence Settings) لمنح المستخدمين خيار تعطيل قدرات الذكاء الاصطناعي المستندة إلى السحابة.

وتقول جوجل إن لديها تاريخاً طويلاً في حماية خصوصية بيانات المستخدم، وهذا ينطبق على ميزات الذكاء الاصطناعي التي تعمل على الجهاز وفي السحابة، حيث تذكر نائبة رئيس ثقة المنتج في الشركة سوزان فراي (Suzanne Frey): "نحن نستخدم نماذج على الجهاز بحيث لا تخرج البيانات أبداً من الهاتف للحالات الحساسة مثل فحص المكالمات الهاتفية". وتُضيف أن منتجات جوجل المستندة إلى السحابة تضمن عدم إرسال معلومات المستخدم مثل المعلومات الحساسة التي يريد تلخيصها إلى جهة خارجية للمعالجة.

جهود آبل في توفير الخصوصية تصطدم بشراكتها مع شركة أوبن أيه آي

على الرغم من أن استراتيجية شركة آبل في كيفية معالجة بيانات المستخدمين عبر نظام الحوسبة السحابية الخاصة بها قد تُعدّ من أفضل الطرق في المحافظة على خصوصية مستخدمي أجهزتها، وقد تُصبح من أفضل الممارسات في مجال الذكاء الاصطناعي للهواتف الذكية، فإن الانتقادات بدأت توجَّه إليها بقوة.

وهذا يعود إلى شراكتها مع شركة أوبن أيه آي والتي بموجبها سوف تضطر إلى فتح نظامها التشغيلي البيئي المغلق لطرف خارجي، ما من شأنه أن يُظهر ثغرات في نظامها الجديد الخاص بالذكاء الاصطناعي، حيث إن الشراكة مع شركة أخرى على مستوى نظام التشغيل ومشاركتها أو دعوة طرف آخر للتكامل معها عُدت خطوة غريبة بالنسبة لشركة آبل.

اقرأ أيضاً: ما أبرز ميزات الذكاء الاصطناعي الجديدة التي يتضمنها «ذكاء آبل»؟

يُذكر أن شركة أوبن أيه آي بالتحديد كانت، ولا تزال، في خضم العديد من مشكلات الامتثال فيما يخص جمع البيانات وممارسات الخصوصية، على سبيل المثال واجهت الشركة العديد من الدعاوى القضائية بشأن ممارسات جمع البيانات حيث اتُهمت بجمع كميات هائلة من البيانات بشكل منهجي من شبكة الإنترنت بما في ذلك المعلومات الشخصية دون الحصول على الموافقة المناسبة.

علاوة على ذلك أصبح المشهد التنظيمي الخاص بخصوصية المستخدمين أكثر صرامة مؤخراً. على سبيل المثال، تتطلب قوانين حماية البيانات في الاتحاد الأوروبي والولايات المتحدة الأميركية مثل كاليفورنيا امتثالاً صارماً لحماية خصوصية المستخدمين، وقد يؤدي أي خطأ إلى تداعيات قانونية ومالية كبيرة على شركة آبل، وهذا يعني أن قرارها بالاستعانة بمصدر خارجي لتنفيذ استراتيجيتها الخاصة بالذكاء الاصطناعي قد يؤدي إلى تعقيد قدرتها على تلبية المتطلبات التنظيمية الصارمة.  

ومع ذلك، في حين أن الآثار الدقيقة للخصوصية ليست واضحة بعد، إلّا أن الشركة تعترف بأن بعض البيانات الشخصية قد تُجمع من كلا الجانبين وتُحلل بواسطة شركة أوبن أيه آي، وعلى الرغم من آبل تذكر أنه سيُطلب الإذن من المستخدم قبل مشاركة طلباته مع بوت الدردشة تشات جي بي تي مع إخفاء عناوين IP وعدم تخزين شركة أوبن أيه آي للطلبات، فإن سياسة استخدام البيانات الخاصة بتشات جي بي تي سوف تظل سارية.

وهذا يعني أنه بالنسبة لبعض البيانات سيظل مستخدم أجهزة آبل عالقاً بقواعد شركة أوبن أيه آي، وهو ما يتنافى مع الخصوصية التي تنتهجها شركة آبل، التي أكدت أنها سوف تزيل معلومات التعريف عند إرسال الطلبات إلى شركة أوبن أيه آي، ومع ذلك من المتوقع أن تكون هنالك الكثير من معلومات التعريف في العديد من الطلبات التي يصعب إزالتها أو لن تتمكن الشركة من إزالتها.

اقرأ أيضاً: هل تنجح آبل في اللحاق بسوق الذكاء الاصطناعي التوليدي عبر تحديث منتجاتها؟

على من تقع المسؤولية في حالة انتهاك خصوصية المستخدم؟

يتفق المراقبون على أن التعاون بين شركتي آبل وأوبن أيه آي ستكون لديه القدرة على إعادة تشكيل المساءلة عبر مشهد الذكاء الاصطناعي، من خلال توزيع المسؤولية عبر كيانات متعددة مختلفة، ما يؤثّر في كيفية تعيين المسؤولية عن النجاحات والإخفاقات المحتملة داخل أنظمتها المترابطة. بالإضافة إلى ذلك، من المتوقع ظهور مخاطر أمنية عند دمج تقنيات الذكاء الاصطناعي في أنظمة تشغيل الشركات الكبرى مثل آبل.

على سبيل المثال، يعد ذكاء آبل إنجازاً مثيراً للإعجاب من الناحية النظرية حتى الآن، ومع ذلك فإن النظام قد يكون عرضة أيضاً لعمليات هجوم ضخمة لم يسبق لها مثيل، ومن المتوقع أن تظهر مشكلات أمنية عندما يُطلق على مستوى العالم وبلغات مختلفة، والتي ستحتاج آبل إلى إدارتها ومعالجتها بالصورة المثلى.

ولهذا السبب تشجّع شركة آبل وجوجل الباحثين الأمنيين على إيجاد ثغرات في أنظمة الذكاء الاصطناعي الخاصة بهما الموجهة للهواتف الذكية، حيث تُشجع جوجل الشركات الأمنية على اختبار دفاعات نماذج الذكاء الاصطناعي الأمنية الخاصة بها ومشاركتها معها، بينما تستخدم شركة آبل نموذجاً تسميه الشفافية القابلة للتحقق (Verifiable Transparency) لفحص نظام الذكاء الاصطناعي الخاص بها، والتحقق من وظائفه والمساعدة على تحديد المشكلات.

المحتوى محمي