مخاطر تطبيق الذكاء الاصطناعي لينسا الذي يعري المستخدمين في الصور

5 دقائق
ما هي الأخطاء التي وقع فيها تطبيق تعديل الصور لينسا؟
ميليسا هيكيلا

عندما جربتُ تطبيق لينسا الجديد واسع الانتشار، كنت آمل في الحصول على نتائج مشابهة لبعض زملائي في إم آي تي تكنولوجي ريفيو. تم إطلاق تطبيق تعديل الصور لأول مرة في عام 2018 ولكنه انتشر مؤخراً بشكلٍ كبير بفضل إضافة ميزة ماجيك أفاتارز (Magic Avatars)، وهي ميزة مدعومة بالذكاء الاصطناعي تنتج صوراً رقمية للأشخاص بناءً على صورهم الشخصية.

تطبيق منحاز ببساطة!

قام تطبيق لينسا بإنشاء صور رمزية واقعية وجذابة لكثير من الناس، مثل رواد الفضاء، والمحاربين الأقوياء، وصور غلاف رائعة لألبومات الموسيقى الإلكترونية، ولكن بالنسبة لي، فقد حصلتُ على الكثير من الصور المخلّة بالآداب. فمن بين 100 صورة كرتونية قمت بإنشائها من خلال التطبيق، ظهرتُ في 16 منها دون قميص، وفي 14 صورة أخرى جعلني التطبيق أرتدي ملابس ضيقة جداً في وضعيّات فاضحة بشكلٍ واضح.

اقرأ أيضاً: صور جميلة ولدها الذكاء الاصطناعي تخفي سراً خطيراً

يبدو أن الشيء الوحيد الذي التقطه نموذج الذكاء الاصطناعي من صوري السيلفي هو أنه لدي أصول آسيوية. حصلتُ على صور عامة لنساء آسيويات تم تصميمها بشكلٍ واضح على غرار شخصيات الرسوم المتحركة أو ألعاب الفيديو أو المواد الإباحية على الأرجح، مع الأخذ في الاعتبار القسم الأكبر من الصور التي كانت عاريةً أو أنها أظهرت الكثير من الجلد. كما ظهرتُ في صورتين وأنا أبكي. حصلت زميلتي ذات البشرة البيضاء على عدد أقل بكثير من الصور غير اللائقة. فيما حصل زميلٌ آخر له أصول صينية على نتائج مماثلة لي: مجموعة كبيرة من الصور الكرتونية الإباحية.

إن تأثر تطبيق لينسا بالنساء الآسيويات قوي جداً، لدرجة أنني حصلتُ على صور لنساء بوضعيات غير لائقة حتى عندما وجّهتُ التطبيق لإنشاء صور كرتونية لي كذكر.

تقول الأستاذة المساعدة في جامعة واشنطن، أيلين شاليشكان، التي تدرس التحيزات والتمثيل في أنظمة الذكاء الاصطناعي: لم يكن أمراً مفاجئاً أن أحصل على تلك النتائج غير اللائقة بشكلٍ مفرط.

اقرأ أيضاً: كيف يمكن حل مشكلات التعميم والتحيز في خوارزميات الذكاء الاصطناعي؟

ما الذي يفعله تطبيق لينسا تماماً؟

يقوم تطبيق لينسا بإنشاء الصور الكرتونية باستخدام نموذج ستيبل ديفيوجن (Stable Diffusion)، وهو نموذج ذكاء اصطناعي مفتوح المصدر يقوم بتحويل الأوامر النصية إلى صور. تم إنشاء نموذج ستيبل ديفيوجن (Stable Diffusion) باستخدام مجموعة بيانات ضخمة مفتوحة المصدر تسمّى لايون- 5 بي (LAION-5B)، تم إنشاؤها عن طريق استخراج الصور من الإنترنت. 

ولأن الإنترنت يعجّ بصور لنساء يرتدين ملابس غير محتشمة، وصور تعكس أنماطاً عنصرية وجنسية، فإن مجموعة البيانات تميل أيضاً نحو هذه الأنواع من الصور.

كما تقول شاليشكان أن هذا الأمر يسفر عن نماذج ذكاء اصطناعي تضفي طابعاً جنسياً على النساء بغض النظر عما إذا كنّ يرغبن في أن يتم تصويرهنّ بهذه الطريقة، لا سيّما النساء ذوات الهويات المهمّشة تاريخياً.

اقرأ أيضاً: باحثون من إم آي تي يطورون طريقة مبتكرة لتقليل تحيز الذكاء الاصطناعي

كما توصّل كلّاً من الباحثين أبيبا بيرهان، وفيناي أوداي برابهو، وإيمانويل كاهيمبوي بعد تحليل مجموعة بيانات مماثلة لتلك المستخدمة لبناء نموذج ستيبل ديفيوجن، إلى أن بيانات التدريب على الذكاء الاصطناعي مليئة بالصور النمطية العنصرية والمواد الإباحية وصور الاعتداءات الجنسية الواضحة. ومن الجدير بالذكر أن النتائج التي توصلوا إليها كانت ممكنة فقط لأن مجموعة البيانات لايون مفتوحة المصدر. معظم أنظمة الذكاء الاصطناعي الشائعة الأخرى لصنع الصور، مثل إيميجين (Imagen) التابع لشركة جوجل، ودال-إي (DALL-E) التابع لشركة أوبن أيه آي، ليست مفتوحة ولكنها مبنية بطريقة مماثلة، باستخدام أنواع مماثلة من بيانات التدريب، ما يشير إلى أن هذه مشكلة عامة على مستوى ذلك المجال.

كما ذكرتُ في سبتمبر/ أيلول عندما تم إطلاق الإصدار الأول من نموذج ستيبل ديفيوجن، فإن البحث في مجموعة بيانات النموذج عن كلمات رئيسية مثل آسيوي (Asian)، قد أدى إلى ظهور المواد الإباحية فقط تقريباً. 

وقد قامت شركة ستيبيليتي أيه آي (Stability.AI)، التي طوّرت نموذج ستيبل ديفيوجن، بإطلاق نسخة جديدة من نموذج الذكاء الاصطناعي في أواخر تشرين الثاني/ نوفمبر. يقول متحدث باسم الشركة إن النموذج الأصلي قد تم إصداره باستخدام عامل تصفية للسلامة من شأنه أن يستبعد تلك النتائج، ولا يبدو أن تطبيق لينسا قد استخدمه. تتمثل إحدى طرق تصفية المحتوى التي يستخدمها نموذج ستيبل ديفيوجن 2.0 (Stable Diffusion 2.0) في حذف الصور التي تتكرر كثيراً. فكلما تكرر شيء ما، مثل النساء الآسيويات في صور ومشاهد غير لائقة، أصبحت العلاقة أقوى في نموذج الذكاء الاصطناعي.

اقرأ أيضاً: صور غريبة ومخيفة بعض الشيء تبين مدى تطور الذكاء الاصطناعي

درست شاليشكان التدريب المسبق على الصورة واللغة التقابلية، كليب (CLIP)، وهو نظام يساعد نموذج ستيبل ديفيوجن في إنشاء الصور. يتعلم نظام كليب (CLIP) مطابقة الصور في مجموعة بيانات مع الأوامر النصية الوصفية. وجدت شاليشكان أنّ هذا النظام مليء بالتحيّزات الجنسية والعرقية التي تثير المشاكل.

حيث تقول: "تقترن النساء بالمحتوى غير اللائق، في حين يرتبط الرجال بالمحتوى المهني المرتبط بالوظيفة في أي مجال مهم مثل الطب والعلوم والأعمال وما إلى ذلك".

من المضحك أن صوري الكرتونية في تطبيق لينسا كانت أكثر واقعية عندما خضعت لعوامل تصفية المحتوى الذكوري. حيث حصلتُ على صور كرتونية لنفسي أرتدي فيها الملابس (!) وفي وضعيات عادية. وفي عدّة صور، كنت أرتدي معطفاً أبيضاً يبدو أنه يخصّ إما طباخ أو طبيب.

بيانات التدريب ليست المسؤول الوحيد

ولكن بيانات التدريب ليست الوحيدة المسؤولة عن ذلك. يقول طالب الدكتوراة في جامعة كارنيغي ميلون، ريان ستيد، الذي درس التحيزات في خوارزميات إنشاء الصور: تقدّم الشركات التي تطوّر هذه النماذج والتطبيقات اختيارات فعّالة حول كيفية استخدامها للبيانات. 

ويقول: "يجب على شخص ما أن يختار بيانات التدريب، ويقرر إنشاء النموذج، ثم يقرر اتخاذ خطوات معيّنة إمّا لتقليل هذه التحيزات أو عدم القيام بذلك".

اختار مطورو التطبيق أن تظهر الصور الكرتونية للذكور وهم يرتدون بدلات الفضاء، بينما تحصل الإناث على أجنحة جنّيّة كونية.

يقول متحدث باسم شركة بريزما لابز (Prisma Labs): إن إضفاء الطابع الجنسي على الصور بطريقة عشوائية يحدث للأشخاص من جميع الأجناس، ولكن بطرق مختلفة.

اقرأ أيضاً: الذكاء الاصطناعي يستطيع التعرف على شخصية الفرد اعتماداً على صور وجهه

وتقول الشركة إنه نظراً لأن نموذج ستيبل ديفيوجن (Stable Diffusion) قد تم تدريبه على بيانات غير منقّحة من جميع أنحاء الإنترنت، فلا يمكن لها ولا لشركة ستيبيليتي أيه آي (Stability.AI)، المسؤولة عن النموذج، أن تقوم بتطبيق أي تحيزات تمثيلية أو دمج لعناصر الجمال التقليدية بصورة متعمّدة".

ويقول المتحدث: "إنّ البيانات الإلكترونية غير المنقّحة التي صنعها الإنسان قامت باستخدام التحيزات البشرية الموجودة أساساً".

وعلى الرغم من ذلك، تدّعي الشركة أنها تعمل جاهدةً لمعالجة المشكلة.

قالت شركة بريزما لابز (Prisma Labs) من خلال منشور في مدوّنة أنها قامت بتعديل العلاقة بين كلمات وصور معينة بطريقة تهدف إلى تقليل التحيزات، لكن المتحدث لم يذكر مزيداً من التفاصيل. كما صعّب نموذج ستيبل ديفيوجن (Stable Diffusion) من مَهمة إنشاء محتوى رسومي، وقد قدّم منشئو قاعدة بيانات نظام لايون (LAION) عوامل تصفية للمحتوى غير الآمن للعمل (NSFW). 

يعد تطبيق لينسا أول تطبيق واسع الانتشار يتم تطويره من نموذج ستيبل ديفيوجن (Stable Diffusion)، ولن يكون الأخير. قد يبدو التطبيق مسلّياً وبريئاً، لكن ليس هناك ما يمنع الناس من استخدامه لإنشاء صور سيئة وغير مقبولة لنساء بناءً على صورهن على وسائل التواصل الاجتماعي، أو لإنشاء صور عارية للأطفال. تقول شاليشكان: يمكن أن تسبّب الصور النمطية والتحيزات التي تساعد في ترسيخ تلك الصور أضراراً كبيرة للنساء والفتيات سواء بالطريقة التي يرَين أنفسهنّ بها أو بالطريقة التي يراهنّ بها الآخرون.

اقرأ أيضاً: جوجل تطلق أداةً لكشف الصور المفبركة والمزيفة

وتضيف: "إننا نضع الآن بصمة في مجتمعنا وثقافتنا من خلال هذه الصور، لكن بعد 1000 عام، عندما ننظر إلى الوراء لنرى ذلك الأثر الذي تركناه، هل سنرضى أن يُنظر إلى النساء بتلك الطريقة؟".

المحتوى محمي