هل يمكن أن يتنبأ الذكاء الاصطناعي بموعد وفاتك؟

4 دقيقة
هل يمكن أن يتنبأ الذكاء الاصطناعي بموعد وفاتك؟
حقوق الصورة: shutterstock.com/Vector Tradition

يُحدث الذكاء الاصطناعي، بفضل قدرته الفائقة على تحليل كميات هائلة من البيانات وتحديد الأنماط، ثورة في العديد من المجالات، بما في ذلك مجال الرعاية الصحية، من خلال القدرة على تحديد المخاطر الصحية المحتملة وتقديم إنذارات مبكرة، والذي بدوره يمكن أن يؤدي إلى تدخلات في الوقت المناسب وتحسين خطط العلاج، ما يؤدي في نهاية المطاف إلى إنقاذ الأرواح.

ومع ذلك، يبقى السؤال: هل يستطيع الذكاء الاصطناعي التنبؤ بدقة بوفاة شخص ما؟ وإذا كان الأمر كذلك، فما مدى دقة هذه التوقعات وما الآثار الأخلاقية؟ وهل نحن مستعدون حقاً لمعرفة متى يحين وقت وفاتنا؟

نموذج ذكاء اصطناعي يستخدم مسار حياة الشخص للتنبؤ بموعد وفاته

كلنا سنموت يوماً ما، ولكن ماذا لو كان بإمكانك معرفة متى ستموت؟ للإجابة عن هذا السؤال طوّر باحثون من جامعة كوبنهاغن الدنماركية (University of Copenhagen) وجامعة نورث إيسترن الأميركية (Northeastern University) نموذج ذكاء اصطناعي أُطلق عليه اسم لايف تو فيك (life2vec)، دُرِّب على مجموعة بيانات 6 ملايين مواطن دنماركي جمعت ما بين عامي 2008 - 2020، وشملت أنواع المعلومات كافة مثل بيانات الصحة والتعليم والتوظيف والدخل وغيرها.

وكانت النتيجة النهائية نموذجاً يعتمد على معالجة اللغات الطبيعية ومكّن من توليد تنبؤات بشكلٍ صحيح لأولئك الذين ماتوا بحلول عام 2020 بنسبة 78%. ووفقاً للدراسة التي نُشرت في مجلة علوم الطبيعة الحوسبية (Nature Computational Science)، أخذ الباحثون بيانات كل شخص على حدة ونظموها في جداول زمنية.

اقرأ أيضاً: هل يمكن أن نسمح للذكاء الاصطناعي باتخاذ قرارات الحياة أو الموت؟

غُذي النموذج لايف تو فيك بهذه الجداول الزمنية كلها، ودُرِّب على التقاط الأنماط بين الأحداث المختلفة التي تظهر في حياة الشخص، مثل هل يبقى الأشخاص الذين شُخِّصت إصابتهم بأمراض معينة على قيد الحياة؟ وهل يميلُ الأشخاص الذين يعملون في مهن معينة إلى العيش فترة أطول؟ ومن خلال هذه الأنماط يمكن للباحثين أن يطلبوا من النموذج إجراء تنبؤات بناءً على الجداول الزمنية.

والمثير للاهتمام في النموذج ليس فقط أنه يقدّم تنبؤات الموت، ولكن كيفية فعله لذلك، حيث صُمِم ليعمل مثل بوتات الدردشة الموجودة حالياً من خلال استخدام التفاصيل الموجودة للتنبؤ بما سيأتي بعد ذلك، تماماً مثلما يطلب مستخدمو تشات جي بي تي كتابة أغنية أو قصيدة أو مقال، حيث يستطيع العلماء طرح أسئلة بسيطة على النموذج مثل: هل يمكن أن يموت هذا الشخص في غضون أربع سنوات؟

جدير بالذكر أن بعض العوامل المرتبطة بالوفيات المبكرة التي تنبأ بها نموذج الذكاء الاصطناعي كانت تشخيص الصحة العقلية، أو كون الشخص ذكراً أو لديه عمل جيد، بينما ارتبط وجود دور قيادي في العمل والدخل الأعلى بالعيش فترة أطول.

اقرأ أيضاً: خوارزمية ذكاء اصطناعي تتنبأ باحتمال التعرض لسكتة قلبية

هل يمكنك استخدام نموذج لايف تو فيك للتنبؤ بموعد وفاتك؟

المعلومات المستخدمة في تدريب النموذج ليست متاحة لعامة الناس أو الشركات لاستخدامها، لحماية المعلومات الشخصية للأشخاص الذين استُخدِمت بياناتهم لتدريب النموذج، حسبما قال الباحث الرئيسي سوني ليمان (Sune Lehmann)، وأضاف: "نحن نعمل بنشاط على إيجاد طرق لمشاركة بعض النتائج بشكلٍ أكثر انفتاحاً، ولكن هذا يتطلب إجراء المزيد من الأبحاث بطريقة يمكن أن تضمن خصوصية الأشخاص في الدراسة".

وحتى عندما يكون النموذج متاحاً للجمهور، فإن قوانين الخصوصية الدنماركية ستجعل من غير القانوني استخدامه لاتخاذ قرارات بشأن الأفراد مثل كتابة وثائق التأمين أو اتخاذ قرارات التوظيف. علاوة على ذلك، من المهم ملاحظة أن البيانات كلها جاءت من الدنمارك، ومن ثَمَّ قد لا تنطبق هذه التوقعات على الأشخاص الذين يعيشون في أماكن أخرى إلى جانب حقيقة أن معظم الناس ربما لا يريدون في الواقع معرفة متى يموتون.

بالإضافة إلى ذلك يعمل الباحثون بنشاطٍ على إيجاد طرق لمشاركة بعض النتائج بشكلٍ أكثر انفتاحاً، لكن هذا يتطلب إجراء المزيد من الأبحاث بطريقة يمكن أن تضمن خصوصية الأشخاص المشاركين في الدراسة، وسبب استخدام بيانات المواطنين الدنماركيين بالتحديد هو أن السلطة المركزية للإحصاء الدنماركي على الرغم من أنها تخضع لرقابة مشددة لأنها تتضمن سجلاً مفصلاً لكل مواطن دنماركي، فإن أنها تُتيح الوصول إلى بيانات المواطنين لفئات معينة، بمن في ذلك الباحثون.

اقرأ أيضاً: كيف يمكن أن يساعد مفهوم التسامح على التبنّي الناجح للذكاء الاصطناعي؟

استخدام الذكاء الاصطناعي للتنبؤ بالموت والآثار الأخلاقية المرافقة له

بحسب الأستاذ والرئيس المؤسس لقسم أخلاقيات علم الأحياء في مركز لانغون الطبي التابع لجامعة نيويورك آرثر كابلان (Arthur Caplan)، فإن مشاركة الذكاء الاصطناعي في التنبؤ بالوفاة هي بداية طريق معقد للغاية، والأمر الفريد في هذا النموذج هو استخدام التوظيف الاجتماعي ومعلومات السجل العام إلى جانب المعلومات الصحية لإجراء تنبؤات وعدم مقابلة أي شخص مطلقاً في الدراسة.

ويُضيف: "أبعد من ذلك، هناك مشكلة أكبر وهي أن خوارزميات الذكاء الاصطناعي بدأت تسلبنا أشياء لا نعرفها عادة، وعلى الرغم من أن لها جانباً إيجابياً يمكن من خلاله منع الوفيات المبكرة، فإنها بالضرورة لا تمثّل شيئاً جيداً".

اقرأ أيضاً: أين وصلنا في سباق وضع قواعد لأخلاقيات الذكاء الاصطناعي؟

وهذا ما انتبه إليه مطورو النموذج، حيث لم يُبلغ المشاركون الأحياء في الدراسة بتنبؤات النموذج، وهو الأمر الذي أشار إليه قائد الدراسة بأنه سيكون غير مسؤول للغاية، ولكن ما يخشاه الباحثون هو الاستخدام المحتمل للنموذج في تحديد العوامل الأخرى التي تؤثّر في الصحة أو أن تستخدمه الشركات مثل شركات التأمين هذا النموذج على الأفراد.

ويؤكد الباحثون أن شركات التكنولوجيا تجمع بانتظام الكثير من البيانات عن المستخدمين، ومن المؤكد أنها تستخدم تلك البيانات لبناء نماذج ذكاء اصطناعي تنبؤية تساعد على تحقيق أقصى قدر من المشاركة أو التنبؤ بما سيشتريه الأشخاص، ولكن أكبر فرق بين خوارزميات شركات التكنولوجيا ونموذجها هو أنه بالنسبة لنماذج الشركات هناك القليل جداً من الشفافية، خلافاً لنموذجها الذي حرصت على أن يفهم الجمهور والمجتمع العلمي كيفية عمله، وما يمكن أن يفعله.

اقرأ أيضاً: كيف نطوّر الذكاء الاصطناعي المسؤول الذي ينفع المجتمع؟

قطاع الرعاية الصحية أكثر قطاع يمكن أن يستفيد من النموذج

من خلال إشراك علماء الاجتماع في عملية بناء النموذج، يأمل الفريق أن يقدّم نهجاً يركّز على الإنسان لتطوير الذكاء الاصطناعي ولا يغفله وسط مجموعة البيانات الضخمة التي دُرِّب نموذجهم عليها، فوفقاً للفريق يتعلق الأمر بالحصول على المعرفة وليس مجرد التنبؤات، حيث إن المعرفة شيء يمكن مشاركته وتحويله إلى عمل واضح.

يرى الفريق أن أحد المجالات الواعدة التي يمكن لهذا النموذج أن يكون له فيها تأثير إيجابي هو مجال الرعاية الصحية، حيث يبدو قائد الفريق أكثر تفاؤلاً ومساعدة الناس من خلال استغلال النموذج، وهذا لا يعني إرسال رسالة نصية إلى الأشخاص تقول: "سوف تُصاب بالسرطان إذا لم تغيّر هذا"، ولكن يمكنك أن تطلب من طبيبك الحصول على هذه المعلومات حتى يتمكن من المساعدة على إرشادك.

اقرأ أيضاً: هل هناك حدود أخلاقية في تطوير الذكاء الاصطناعي؟

بينما تقول أستاذة علوم الكمبيوتر في جامعة نورث إيسترن وعضوة الفريق تينا إلياسي راد (Tina Eliassi Rad): "إن قطاع الرعاية الصحية يعتبر مجالاً واعداً للنموذج لأنه يمثّل أحد مجالات المشكلات الأخلاقية التي تشعر بالقلق إزاءها عندما يتعلق الأمر بكيفية تطبيق هذه التكنولوجيا في كثيرٍ من الأحيان".

وتُضيف: "أعتقد أن الرعاية الصحية هي وسيلة جيدة لاستخدام النموذج للاستكشاف، وربما للتمكن من توفير رعاية صحية أفضل، وعلى وجه الخصوص يعتبر مناسباً لهذا القطاع لأن هناك أشخاصاً يمكن محاسبتهم بدلاً من عدم المساءلة على الإطلاق عندما تدمر حياة الناس بسبب بعض التنبؤات التي يقدّمها نموذج الذكاء الاصطناعي".

المحتوى محمي