تعتبر شركة ميتا (Meta)، المعروفة سابقاً باسم فيسبوك، شركة تكنولوجيا عملاقة أسهمت بشكلٍ كبير في تشكيل المشهد الرقمي العالمي. إذ يستخدم مليارات الأشخاص في أنحاء العالم كافة منصاتها الشهيرة، مثل فيسبوك وإنستغرام وواتساب، التي أصبحت جزءاً لا يتجزأ من حياتنا اليومية.
لكن ممارسات ميتا في جمع البيانات أثارت منذ سنوات مخاوف تتعلق بالخصوصية. في هذه المقالة، سنتعمق في ممارسات جمع البيانات الخاصة بشركة ميتا واستخدامها لتدريب نماذج الذكاء الاصطناعي، والآثار المترتبة على هذه الممارسات، وكيف يمكن للمستخدمين حماية خصوصيتهم في أثناء استخدام منصات ميتا.
اقرأ أيضاً: كيف استجابت ميتا للنداءات الداعية إلى مستوى أعلى من الشفافية؟
ممارسات جمع البيانات لدى ميتا
تجمع ميتا كميات هائلة من البيانات عن مستخدميها، يشمل ذلك المعلومات الشخصية مثل الأسماء وعناوين البريد الإلكتروني وأرقام الهواتف، كما تتعقب ميتا سلوك المستخدم على منصاتها، وتجمع البيانات حول التفاعلات والتفضيلات وحتى الأنشطة خارج المنصة من خلال ملفات تعريف الارتباط والعلاقات مع التطبيقات والمنصات الخارجية.
هذه البيانات لا تُقدّر بثمن لتدريب نماذج الذكاء الاصطناعي. على سبيل المثال، تستخدم ميتا تفاعلات المستخدم لتحسين خوارزميات التوصية الخاصة بها، ما يجعلها قادرة على التنبؤ برغبات المستخدم وتقديم محتوى وإعلانات تتوافق مع اهتماماته وتحقق لها عائدات كبيرة.
بالإضافة إلى ذلك، بدأت ميتا تطوير مجموعة متنوعة من نماذج الذكاء الاصطناعي التوليدي، مثل نموذج اللغة الكبير لاما (Llama)، ونموذج توليد الصور إميجن ويذ ميتا أيه آي (Imagine with Meta AI)، ونماذج يمكنها التعرف على الكلام وتوليده بأكثر من ألف لغة.
لتدريب نماذج الذكاء الاصطناعي هذه، هناك حاجة إلى كميات كبيرة من البيانات، ميتا تستطيع الحصول على هذه البيانات بسهولة من مستخدمي منصاتها المختلفة والأطراف الخارجية التي تتعاون معها.
كيف تستخدم ميتا البيانات لتطوير نماذج الذكاء الاصطناعي التوليدي؟
في مركز الخصوصية على موقع ميتا، أجابت الشركة عن السؤال: من أين تحصل ميتا على معلومات التدريب؟ بالتالي:
نظراً لأن الأمر يتطلب قدراً كبيراً من البيانات لتدريب نماذج فعّالة، تُستَخدم مجموعة من المصادر للتدريب، والمعلومات المتاحة للجمهور على الإنترنت والمعلومات المرخصة، وأيضاً المعلومات على منتجات وخدمات ميتا. يمكن أن تكون هذه المعلومات أشياء مثل المنشورات أو الصور والتعليقات. لا نستخدم محتوى رسائلك الخاصة مع الأصدقاء والعائلة لتدريب الذكاء الاصطناعي الخاص بنا. توجد تفاصيل أكثر حول كيفية استخدامنا المعلومات من منتجات وخدمات ميتا في صفحة سياسة الخصوصية.
اقرأ أيضاً: ميتا تطوّر أداة ذكاء اصطناعي تمكنك من التحدث بـ 6 لغات
عندما نجمع معلومات عامة من الإنترنت أو بيانات مرخصة من مقدمي خدمات آخرين لتدريب نماذجنا، فقد تتضمن معلومات شخصية. على سبيل المثال، إذا جمعنا منشوراً عاماً في مدونة، فقد يتضمن ذلك اسم المؤلف ومعلومات الاتصال الخاصة به. عندما نحصل على معلومات شخصية كجزء من هذه البيانات العامة والمرخصة التي نستخدمها لتدريب نماذجنا، فإننا لا نربط هذه البيانات على وجه التحديد بأي من حسابات ميتا.
حتى لو لم تستخدم منتجاتنا وخدماتنا أو لم يكن لديك حساب، فما زال بإمكاننا معالجة المعلومات الخاصة بك لتطوير الذكاء الاصطناعي وتحسينه. على سبيل المثال، قد يحدث هذا إذا ظهرت في أي صورة تمت مشاركتها على منصاتنا من قِبل شخص يستخدمها أو إذا ذكر شخص ما معلومات عنك في المنشورات أو التعليقات التي يشاركها على منصاتنا.
آثار جمع البيانات لتدريب نماذج الذكاء الاصطناعي
إن جمع بيانات المستخدم من قِبل ميتا له جانبان سلبي وإيجابي:
الجانب السلبي: مخاوف متعلقة بالخصوصية
أحد المخاوف الأساسية هو احتمال حدوث انتهاكات لخصوصية المستخدمين. فعند تخزين كميات هائلة من البيانات الشخصية، يزداد خطر تسرب هذه البيانات أو الوصول غير المصرح به إليها أو إساءة استخدامها. وقد سلّطت الحوادث البارزة مثل فضيحة كامبريدج أناليتيكا، الضوء على نقاط الضعف وإساءة استخدام بيانات المستخدم من قِبل ميتا.
بالإضافة إلى ذلك، تمنح شركة ميتا مستخدمي منصاتها سيطرة محدودة على كيفية استخدام بياناتهم، ما يُثير تساؤلات أخلاقية وقانونية حول الموافقة والشفافية.
الجانب الإيجابي: فوائد لنماذج الذكاء الاصطناعي
من ناحية أخرى، تسهم البيانات التي تجمعها ميتا في تطوير نماذج الذكاء الاصطناعي المتطورة التي تعمل على تحسين تجربة المستخدم. تُعدّ أنظمة التوصية المحسنة والمحتوى المخصص من الفوائد التي يتمتّع بها المستخدمون جميعهم، كما أن خوارزميات ميتا المتطورة أصبحت قادرة على تمييز المحتوى الضار وغير المرغوب به بشكلٍ تلقائي وحذفه من المنصات دون الحاجة إلى إشراف بشري، ما يجعل المنصات أكثر أماناً للجميع.
أيضاً، تسهم نماذج الذكاء الاصطناعي التوليدي التي أطلقتها ميتا في توفير طريقة سهلة لإنشاء محتوى حصري انطلاقاً من مطالبات نصية بسيطة، وقد جعلت ميتا نموذج اللغة الكبير لاما مفتوح المصدر، أي أنه متاح للجميع مجاناً دون أي قيود.
اقرأ أيضاً: نظام ذكاء اصطناعي من ميتا يستطيع تحويل التعليمات النصية إلى مقاطع فيديو
3. هل يمكنك منع استخدام بياناتك لتدريب نماذج الذكاء الاصطناعي؟
على الرغم من أن إيقاف جمع البيانات نهائياً على منصات ميتا هو أمر مستحيل، فإن الشركة أنشأت صفحة يمكن من خلالها تقديم طلب لإزالة المعلومات الشخصية الخاصة بك إذا استُخدمت في تدريب نماذج الذكاء الاصطناعي، لكن ذلك يشمل فقط المعلومات الشخصية التي حصلت عليها ميتا من أطراف ثالثة، هذا يعني أن معلوماتك الشخصية التي جُمِعت عن طريق منصات ميتا لا يمكن منع استخدامها لتدريب الذكاء الاصطناعي.
في هذه الصفحة، يمكنك تقديم إحدى هذه الطلبات:
- تنزيل معلوماتك الشخصية أو تصحيحها التي حصلت عليها ميتا من أطراف ثالثة واستخدمتها لتطوير الذكاء الاصطناعي وتحسينه.
- حذف معلوماتك الشخصية التي حصلت عليها ميتا من أطراف ثالثة واستخدمتها لتطوير الذكاء الاصطناعي وتحسينه.
- توضيح المخاوف بشأن معلوماتك الشخصية التي حصلت عليها ميتا من أطراف ثالثة وظهرت في استجابة لنموذج أو ميزة ذكاء اصطناعي طوّرتها ميتا.
تقول ميتا إنها لا تنفذ تلقائياً الطلبات التي تردها عبر هذه الصفحة، بل تراجعها بما يتوافق مع القوانين.
نصائح لحماية خصوصيتك في أثناء استخدام منصات ميتا
يجب على المستخدمين جميعهم اتخاذ عدة خطوات لحماية خصوصيتهم على منصات ميتا، بما في ذلك:
- ضبط إعدادات الخصوصية: يجب على المستخدمين مراجعة إعدادات الخصوصية وتخصيصها للحد من مشاركة البيانات قدر الإمكان.
- استخدام أدوات تركّز على الخصوصية: يمكن أن تساعد إضافات متصفح الويب والتطبيقات التي تركّز على الخصوصية في منع التتبع والحد من جمع البيانات.
- الحذر مما تشاركه: تجنّب مشاركة المعلومات الحساسة على منصات التواصل الاجتماعي وكُنْ حذراً بشأن الأذونات الممنوحة للتطبيقات.
- مراجعة نشاط الحساب بشكلٍ منتظم: راقب حسابك بحثاً عن أي أنشطة مشبوهة واتخذ الإجراء الفوري إذا عثرت على أي شيء مريب.
اقرأ أيضاً: كيف تستخدم نموذج الذكاء الاصطناعي لاما 2 من ميتا؟
من خلال اتباع هذه التوصيات، لن تمنع ميتا من استخدام معلوماتك لتدريب نماذج الذكاء الاصطناعي، لكنك ستضمن أن هذه المعلومات لن تكون حساسة ولا يمكن استخدامها بشكلٍ ضار ضدك.