هل أتحدث إلى بَشَر؟

4 دقائق

تحديث، 11 مايو/أيار: قالت شركة "جوجل" في بيان لـ "مجلة فوغ" مساء الخميس إن تقنية "دوبلكس" الجديدة في مساعدها الذكي واعدة وسنكشف عنها قريباً. وقد عبرت جوجل عن ذلك قائلة: "لقد صممنا هذه الميزة المدمجة في مساعدنا الذكي ونحرص على الكشف عنها وتعريف المستخدمين بها بصورة لائقة. وذكرت شركة جوجل في بيانها حول موضوع تقنيات المساعدة الافتراضية والبشر قائلة: "ما عرضناه في مؤتمر "مطوري جوجل" السنوي كان استعراضاً أولياً لهذه التكنولوجيا، ونحن نتطلع إلى الاستفادة من الآراء الواردة من المستخدمين في أثناء مهمة تطوير هذا المنتج".

لا تلفظ أي من تقنيتي المساعدة الافتراضية "سيري" من "آبل" و"أليكسا" من "أمازون"، كلمات مثل "يعني" أو "امممم" لكسب الوقت أثناء المحادثة، بل يبقى كلامهما موجزاً ومباشراً. فما هي إلا مجرد آلات، ولهجتها المتكلفة وإيجازها يدعوان إلى الاطمئنان. يبدو أنه لا يزال بإمكاننا التفريق بين البشر و(الروبوت) الآلي.

تقنيات المساعدة الافتراضية والبشر

إن هذا سيتغير من الآن فصاعداً. إذ يبدو أن الإصدار الجديد من مساعد "جوجل" الذكي، وهو البرنامج المقابل لأليكسا وسيري، يستطيع خداع الأشخاص الغافلين وجعلهم يعتقدون أنهم يتحدثون مع إنسان من لحم ودم. تُدعى هذه الإمكانية الجديدة بـ "دوبلكس"، ويتوفر على الإنترنت تسجيلين لمحادثتين هاتفيتين بينها وبين بشر عاديين استمع إليهما الحضور في مؤتمر "مطوري جوجل" السنوي، إحداهما لحجز موعد عند مصفف الشعر والأخرى لحجز طاولة في مطعم، وبدا الشخصان اللذان استقبلا اتصال دوبلكس في هاتين المحادثتين غير مدركين إطلاقاً أنهما يتحدثان إلى آلة. كانت دوبلكس مثيرة للإعجاب على اعتبارها ميزة تقنية، إذ كانت تتحدث بطريقة بشرية بحتة مع لفظ بعض التعبيرات مثل "أووه" أو "امممممم" عند اللزوم، وكانت الكلمات تخرج منها بانسياب كما يلفظها البشر تماماً. 

وعلى الرغم من ذكاء دوبلكس، فإن لديها مجموعة من المشكلات الأخلاقية التي تتعلق بمخترعيها وصانعيها أكثر من ارتباطها بالذكاء الاصطناعي ذاته. 

لم تصرّح "جوجل" عن حصولها على موافقة معلنة من موظفَي مركز التجميل والمطعم قبل اتصال دوبلكس بهما. إن كانت قد حصلت عليها فعلاً، وكان الشخصان على الطرف الآخر من الهاتف يعلمان بإمكانية أن يكون المتصل هو دوبلكس، عندئذ لن تكون هذه النتائج مبهرة فعلاً. أما إن لم تحصل عليها، فهذا أمر يمكن أن يتسبب بطرد أي عالم اجتماع من أي جامعة بحثية.

ولكن تبقى هذه أصغر المشاكل الأخلاقية التي تبرز من إطلاق دوبلكس في المجتمع. وعبّر مدراء شركة "جوجل" في مؤتمر "مطوري جوجل" عن مدى أهمية "القيام بالأمر بصورة صحيحة" بالنسبة للشركة فيما يتعلق بالذكاء الاصطناعي. ولكن بدلاً من ذلك يمكن أن توسّع تقنية دوبلكس الفجوات بين الطبقات والشرائح الاجتماعية- الاقتصادية بشكل كبير.

تم تقديم جوجل دوبلكس على أنها وسيلة مساعدة للأشخاص كثيري الانشغال الذين لا يملكون الوقت لإجراء اتصال هاتفي من أجل حجز موعد ما، (اقرأ: ناجح سوسيو- اقتصادياً). حيث يمكنهم الطلب من مساعد جوجل الذكي تولي الأمر، وهو بدوره سينشّط دوبلكس التي ستجري الاتصال اللازم.

نعلم بالتأكيد من الذين سيستقبلون هذه الاتصالات، وبالطبع لن يكونوا أشخاصاً مشغولين. بل هم مضيفو المطاعم ومصففو الشعر وموظفو الاستقبال وآخرون ممن يتولون مهمة تلقي اتصالات الزبائن وينالون أجوراً منخفضة على الأغلب. ومن غير المؤكد أن تُستخدم تقنية دوبلكس من أجل ترتيب اجتماع مع أشخاص مهمين، لأنه من الأفضل دوماً الاتصال بهم شخصياً، أليس كذلك؟

تعزل "دوبلكس" هؤلاء الذين يقطنون في بروج عالية مرفهة عن الذين يعيشون حياة عادية على الأرض. وتريحهم من الإحراج بسبب وجوب تحدثهم إلى شخص من طبقة سوسيو- اقتصادية أدنى. ولهذا السبب، ستحظى هذه التقنية غالباً بشعبية كبيرة. ولكن من الضروري فهم العبء الإضافي الذي ترميه على من يتلقون الاتصالات، فهم سيمضون أيامهم في العمل يحاولون معرفة ما إن كان المتصل بشراً أم لا. ولكن، يمكن أن نجد فيها فائدة واحدة، وهي أن دوبلكس لن تتواقح مع موظف الخدمة.

حل المشاكل الأخلاقية المتعلقة بالمساعد الافتراضي

هناك حل لهذه المشكلة، وهو ببساطة أن تقدم الآلة تعريفاً موجزاً عنها عند الاتصال، كأن تقول على سبيل المثال: "مرحباً، جوجل دوبلكس تتحدث إليكم من طرف...". وبذلك، على الأقل، يتيح الإفصاح المسبق عن أن المتصل عبارة عن آلةـ فرصة اختيار الطرف الآخر قبول تلقي الاتصال أو رفضه. وعلى ما يبدو، سنجري محادثات مع (روبوتات) عاجلاً أم آجلاً، ولم ترتكب شركة "جوجل" خطأ في محاولة بدء هذا الأمر الآن، ولكن ألا ينبغي علينا على الأقل أن نخلق توقّعاً بأن يعرّف الصوت الذي يكلمنا على الهاتف بأنه آلة ذكاء اصطناعي؟

إن القاعدة الأخلاقية التي تولّد أشياء مثل جوجل دوبلكس، هي عبارة عن آفة هندسية أطلق عليها الناقد التقني إيفجيني موروزوف، "حلولاً يسيرة". وبحسب بحث "جوجل" نفسها، ليس بإمكان 60% من الشركات الصغيرة التي تعتمد على حجوزات الزبائن تحمّل تكاليف تطبيق نظام حجز على الإنترنت يتوافق مع التقنيات الجديدة، مثل المساعد الافتراضي وروبوت المحادثة "تشات بوت" (chatbot). وحتى إن كان ذلك ممكناً، سيكون تدريب الموظفين في النظام الجديد استنزافاً للوقت الثمين والمال. ولكن، عوضاً عن إيجاد حل لهذه المشكلة، اعتبر المهندسون لدى "جوجل" أن المشكلة تكمن في الطرف غير الآلي من المعادلة، أي الإنسان الذي يتلقى المكالمة.

إذا كانت شركة "جوجل" راغبة بأن يحتضن العالم خارج فقاعة وادي السيليكون الذكاء الاصطناعي وتعلم الآلات، فإن تحويل المساعد الافتراضي إلى منتحل لن يساعدها في تحقيق ذلك. وبدلاً من أن يكون هذا العمل إقناعاً صريحا، يبدو أنه نوع من الإكراه المخادع الذي يقول عنه فلاسفة الأخلاق، مثل جون رولز:"إنه خرق لمبادئ الحرية المقدسة ويحتاج إلى تبرير علني". 

ومن الأفضل أن تفكر شركة "جوجل" أيضاً فيما حدث في المرة الأخيرة التي نسيت فيها أن تقدم للناس الخيار في التعامل مع التكنولوجيا الخاصة بها عندما أطلقت نظارات جوجل "غلاس". حيث بدأ المسيئون باختراق خصوصيات الآخرين عن طريق الكاميرات المدمجة المخفية في النظارات، ما سبب ردات فعل هائلة عليها، وبالتالي، وضعت نسخة المستهلكين من النظارات جانباً.

الانتحال الرقمي

إذا بدأ الناس باستقبال اتصالات هاتفية ليتفاجؤوا في منتصف المحادثة أنهم يكلمون منتحلاً رقمياً، ستُهمل دوبلكس وتوضع جانباً تماماً مثل غلاس. لأنه يبدو من غير العدل الاستمرار في خداع موظفي قطاع الخدمات من أجل تسهيل حياة "المشغولين". ويبدو أن بعض مدراء شركة "جوجل" بدؤوا يدركون هذه الحقيقة ولكن، وفق ما قاله سكوت هافمان، من شركة "جوجل "في إحدى المقابلات: "إذا جعلوا دوبلكس تعرّف عن نفسها منذ بداية الاتصال أو إذا جعلوا صوتها غير بشري، ربما يغلق بعض الناس السماعة ويرفضون تلقي الاتصال. وهذا هو الهدف تماماً، إذ إنه ليس من الصواب سلب حق الناس في الاختيار. وعلى كل الأحوال، يبدو أن "جوجل" اختارت استراتيجية التعتيم بدلاً من الشفافية وحرية الاختيار". 

في النهاية، نجد أن جميع شركات وادي السيليكون التي تعتمد على الخوارزميات في معالجة بيانات المستهلكين ومعلوماتهم، تواجه تحدي الشفافية ذاته. وبما أن هذه الخوارزميات محجوبة عنا، يُطلب منا الثقة بأن شركات مثل "جوجل" و"فيسبوك" و"أمازون" ستلبي ما تحتاجه معلوماتنا وتعامل بياناتنا باحترام، لكن لنكتشف بعد ذلك، على سبيل المثال، أن شركة "كامبريدج أناليتيكا"، استخدمت بياناتنا لدى "فيسبوك: بطرق لم نوافق عليها، أو احتمال أن تكون نتائج بحث "جوجل" عنصرية ومتحيزة جنسياً. 

وفي نهاية الحديث عن تقنيات المساعدة الافتراضية والبشر، سيتوجب على هذه الشركات أن تكون أكثر انفتاحاً فيما يتعلق بطريقة عملها إذا أرادت كسب ثقتنا. وذلك يتضمن عدم تضليلنا عندما نتلقى اتصالاً من آلة ذكاء اصطناعي. فلنكن صريحين، ربما كان التحدث إلى (روبوت) ممتعاً، وبالأخص إن كان يخدم غاية عملية. ولكن لا أحد يحب الأشخاص المزيفين.

المحتوى محمي