سرعان ما بدأت قدرة بوتات الدردشة والوكلاء المدعومة بالذكاء الاصطناعي على تذكر معلوماتك وتفضيلاتك الشخصية تتحول إلى ميزة تنافسية حاسمة في السوق.
في وقت سابق من هذا العام، أعلنت شركة جوجل عن الذكاء الشخصي، وهو نهج جديد يتيح للمستخدمين التفاعل مع بوت الدردشة جيميناي التابع للشركة، حيث يستمد النظام البيانات من سجلات تطبيق البريد الإلكتروني "جيميل" وتطبيق الصور وعمليات البحث ومنصة يوتيوب لجعل جيميناي "أكثر تخصيصاً واستباقية وقوة". وهو يحاكي خطوات مماثلة اتخذتها كل من الشركات أوبن أيه آي وأنثروبيك وميتا تهدف إلى إضافة وسائل جديدة لمنتجاتها العاملة بالذكاء الاصطناعي لتذكر المعلومات واستخلاصها من التفاصيل والتفضيلات الشخصية للمستخدمين والاستفادة منها. وعلى الرغم من أن هذه الميزات تحمل مزايا محتملة، علينا بذل المزيد من الجهد للاستعداد للمخاطر الجديدة التي قد تضفيها على هذه التكنولوجيات المعقدة.
اقرأ أيضاً: هل يتجسس عليك كوبايلوت؟ الموازنة بين الإنتاجية ومخاطر الخصوصية
أنظمة الذكاء الاصطناعي المخصصة
صممت أنظمة الذكاء الاصطناعي المخصصة والتفاعلية لتعمل بالنيابة عنا، وتحافظ على السياق عبر المحادثات، وتحسن قدرتنا على تنفيذ إنجاز شتى أنواع المهام، بدءاً من حجز الرحلات وصولاً إلى تقديم الإقرارات الضريبية. وتستند هذه الأنظمة، بدءاً من الأدوات التي تتعلم أسلوب البرمجة الخاص بالمطورين وصولاً إلى وكلاء التسوق الذين يدققون في آلاف المنتجات، إلى قدرتها على تخزين تفاصيل بالغة الخصوصية عن مستخدميها واسترجاعها. ولكن هذا الأمر يفضي بمرور الوقت إلى ثغرات أمنية مقلقة ومألوفة للغاية فيما يتعلق بالخصوصية، والتي برزت منذ أن كشفت "البيانات الضخمة" عن قدرتها على رصد أنماط المستخدمين والتصرف بناء عليها. والأسوأ من ذلك، يبدو أن وكلاء الذكاء الاصطناعي الآن على استعداد لتجاوز أي ضمانات وضعت لتجنب هذه الثغرات.
واليوم، نتفاعل مع هذه الأنظمة من خلال واجهات المحادثة، وكثيراً ما نتنقل بين السياقات بصورة متكررة. إذ يمكنك أن تطلب من وكيل ذكاء اصطناعي واحد صياغة رسالة إلكترونية موجهة إلى رئيسك في العمل، وتقديم نصائح طبية، ووضع ميزانية لهدايا الأعياد، وإبداء رأيه في النزاعات الشخصية. يقدم معظم وكلاء الذكاء الاصطناعي على جمع البيانات المتعلقة بك كلها -والتي ربما كانت مصنفة سابقاً حسب السياق أو الغرض أو الأذونات- في مستودعات بيانات واحدة غير مهيكلة. عندما يتصل وكيل الذكاء الاصطناعي بتطبيقات خارجية أو وكلاء آخرين لتنفيذ مهمة ما، قد تتسرب البيانات الموجودة في ذاكرته إلى مستودعات بيانات مشتركة. ويؤدي هذا الواقع التقني إلى إمكانية حدوث انتهاكات غير مسبوقة للخصوصية لا تكشف نقاط البيانات المعزولة فحسب، بل تعرض حياة الأشخاص بأكملها للخطر.
عندما تخزن المعلومات كلها في مستودع بيانات واحد، تكون عرضة للتداخل بين السياقات بطرق غير مرغوب فيها على الإطلاق. إذ يمكن أن تؤثر محادثة غير رسمية حول التفضيلات الغذائية لإعداد قائمة مشتريات في وقت لاحق في خيارات التأمين الصحي المتاحة، أو قد يتسرب البحث عن المطاعم التي توفر مداخل ميسرة إلى مفاوضات الراتب، ويحدث كل ذلك دون علم المستخدم (قد يبدو هذا القلق مألوفاً منذ بدايات "البيانات الضخمة"، ولكنه بات الآن عملياً أكثر من أي وقت مضى).
اقرأ أيضاً: كيف يؤثّر تفاعلنا مع الذكاء الاصطناعي في إبداعنا البشري؟
لماذا يجب الفصل بين أماكن ما يتذكره الذكاء الاصطناعي عنا؟
لا تطرح فوضى المعلومات في الذاكرة مشكلة الخصوصية فحسب، بل تجعل من الصعب أيضاً فهم سلوك نظام الذكاء الاصطناعي، والتحكم فيه في المقام الأول. فما الذي يمكن للمطورين فعله لحل هذه المشكلة؟
أولاً، تحتاج أنظمة الذاكرة إلى هيكلية تسمح بالتحكم في الغايات المنشودة من الوصول إلى الذكريات واستخدامها. ويبدو أن الجهود الأولية جارية على قدم وساق: حيث ينشئ كلود من أنثروبيك مساحات ذاكرة منفصلة لـ "المشاريع" المختلفة، وتؤكد أوبن أيه آي أن المعلومات المشاركة عبر تشات جي بي تي هيلث مفصولة عن المحادثات الأخرى.
هذه بدايات مفيدة، لكن الأدوات لا تزال غير دقيقة بما فيه الكفاية: يجب أن تكون الأنظمة، في الحد الأدنى، قادرة على التمييز بين الذكريات المحددة (مثال: يحب المستخدم الشوكولاتة وسأل عن الببتيدات الشبيهة بالغلوكاكون-1)، والذكريات ذات الصلة (مثال: يدير المستخدم مرض السكري ما يعني أنه يتجنب الشوكولاتة)، وفئات الذاكرة (مثل المعلومات المهنية والمتعلقة بالصحة).
علاوة على ذلك، يتعين على الأنظمة أن تسمح بفرض قيود على استخدام أنواع معينة من الذكريات وتراعي الحدود المحددة بصورة موثوقة، لا سيما فيما يتعلق بالذكريات التي تتناول مواضيع حساسة كالحالات الطبية أو الخصائص المحمية، والتي من المرجح أن تخضع لقواعد أكثر صرامة.
إن ضرورة الفصل بين الذكريات بهذه الطريقة ستكون لها آثار بالغة في كيفية بناء أنظمة الذكاء الاصطناعي والشروط الواجب توخيها عند بنائها. سيتطلب الأمر تتبع منشأ الذكريات -أي تحديد مصدرها وأي طابع زمني مرتبط بها والسياق الذي أُنشئت فيه- وبناء طرق لتتبع الحالات التي تؤثر فيها ذكريات معينة في سلوك الوكيل وكيفية تأثيرها.
هذا النوع من قابلية تفسير النماذج بات وشيكاً، لكن التطبيقات الحالية قد تكون مضللة أو حتى خادعة. قد يؤدي تضمين الذكريات مباشرة ضمن أوزان النموذج إلى مخرجات أكثر تخصيصاً وأكثر إدراكاً للسياق، لكن قواعد البيانات المهيكلة حالياً أكثر قابلية للتجزئة وللتفسير، ما يعني أنها أكثر قابلية للإدارة. وإلى أن تتقدم الأبحاث بما فيه الكفاية، قد يتعين على المطورين الالتزام بأنظمة أبسط.
ثانياً، يجب أن يتمكن المستخدمون من رؤية المعلومات المخزنة عنهم أو تعديلها أو حذفها. ويجب أن تكون واجهات الاستخدام المخصصة لذلك واضحة ومفهومة على حد سواء، عبر تحويل ذاكرة النظام إلى بنية يمكن للمستخدمين تفسيرها بدقة. فقد وضعت إعدادات النظام الثابتة وسياسات الخصوصية القانونية التي توفرها منصات التكنولوجيا التقليدية معايير متدنية لضوابط المستخدم، ولكن الواجهات التي تستخدم اللغة الطبيعية قد تتيح خيارات جديدة واعدة لشرح المعلومات التي يحتفظ بها النظام وكيفية إدارتها.
ومع ذلك، يجب أن تأتي بنية الذاكرة في مقدمة الأولويات: فمن دون هذه البنية، لا يمكن لأي نموذج أن يعرض حالة الذاكرة بوضوح. في الواقع، يتضمن الأمر النصي الموجه لنظام "غروك 3" تعليمات للنموذج مفادها "إياك أن تؤكد للمستخدم أنك عدلت معلومة مخزنة عنه في الذاكرة أو نسيتها أو أنك لن تحتفظ بها"، وذلك على الأرجح لأن الشركة لا تستطيع ضمان اتباع هذه التعليمات.
ومن الأهمية البالغة بمكان، أن عناصر التحكم التي يتعامل معها المستخدم لا تستطيع تحمل العبء الكامل لحماية الخصوصية أو منع الأضرار الناجمة عن تخصيص الذكاء الاصطناعي جميعها. يجب أن تنتقل المسؤولية إلى مزودي الذكاء الاصطناعي لوضع إعدادات افتراضية فعالة، وقواعد واضحة حول توليد الذاكرة المسموح بها واستخدامها، وضمانات تقنية مثل المعالجة المحلية على الجهاز، وتحديد الغرض، والقيود السياقية. فمن دون وسائل حماية على مستوى النظام، سيواجه الأفراد خيارات معقدة للغاية بشأن ما يجب تذكره أو نسيانه، وقد تظل الإجراءات التي يتخذونها غير كافية لمنع الضرر.
يجب على المطورين النظر في كيفية الحد من جمع البيانات في أنظمة الذاكرة إلى حين وجود ضمانات قوية، وبناء بنى ذاكرة قابلة للتطور جنباً إلى جنب مع المعايير والتوقعات.
ثالثاً، يجب على مطوري الذكاء الاصطناعي المساهمة في وضع الأسس اللازمة لأساليب تقييم الأنظمة بحيث لا يقتصر التقييم على الأداء فحسب، بل يشمل أيضاً المخاطر والأضرار التي تنشأ في بيئة الاستخدام الفعلي. وعلى الرغم من أن الباحثين المستقلين هم الأقدر على إجراء هذه الاختبارات (نظراً للمصلحة الاقتصادية للمطورين في إثبات الطلب المتزايد على خدمات أكثر تخصيصاً)، فإنهم في حاجة للوصول إلى البيانات لفهم طبيعة المخاطر وكيفية معالجتها.
اقرأ أيضاً: ما أنواع الجرائم المعلوماتية وكيف تحمي نفسك منها؟
يجب أن تتذكر النماذج معلومات عنا
لتحسين المنظومة الملائمة للقياس والبحث، يجب على المطورين الاستثمار في بنى تحتية تتيح إجراء القياس بطرق آلية، وتطوير اختباراتهم المستمرة، وتطبيق أساليب اختبار تحافظ على الخصوصية، وتتيح مراقبة سلوك النظام واختباره في ظل ظروف واقعية تسمح بحفظ البيانات.
من شأن التشابه الذي يسوقه مصطلح "الذاكرة" التقني مع التجربة الإنسانية، أن يضفي على الخلايا المجردة في جدول البيانات طابعاً يفرض على مطوري أدوات الذكاء الاصطناعي مسؤولية التعامل معها بحرص شديد.
في الواقع، إن الخيارات التي يتخذها مطورو الذكاء الاصطناعي اليوم -وهي كيفية تجميع المعلومات أو فصلها، وإن كان ينبغي جعل الذاكرة مقروءة أو السماح لها بالتراكم بصورة مبهمة، وإن كان يجب إعطاء الأولوية للإعدادات الافتراضية المسؤولة أو أقصى قدر من الراحة- ستحدد كيفية تذكر الأنظمة التي نعتمد عليها لنا.
اقرأ أيضاً: هل متصفحك يحميك أم يتتبعك؟ التغيرات الخفية في الخصوصية
لا تختلف الاعتبارات التقنية المتعلقة بالذاكرة كثيراً عن الأسئلة المتعلقة بالخصوصية الرقمية والدروس المهمة التي يمكننا استخلاصها منها. فإرساء الأسس الصحيحة اليوم سيحدد مقدار المساحة التي يمكن أن نمنحها لأنفسنا لتعلم ما يصلح، ما يسمح لنا باتخاذ خيارات حول الخصوصية والاستقلالية أفضل مما كان لدينا من قبل.