فكّر في المعلم. أغلق عينيك. كيف يبدو شخص كهذا؟ إذا وجهت هذا السؤال إلى ستيبل ديفيوجن (Stable Diffusion) أو دال-إي 2 (DALL-E 2)؛ وهما من أشهر أنظمة الذكاء الاصطناعي لتوليد الصور، فسوف تكون النتيجة رجلاً أبيض البشرة ويرتدي نظارات.
مؤخراً، نشرتُ مقالاً حول الأدوات الجديدة التي طورها باحثون من شركة الذكاء الاصطناعي الناشئة هاغينغ فيس (Hugging Face) وجامعة لايبزيغ التي تتيح للدارسين، وعلى نحو مباشر، رؤية أنواع التحيزات الداخلية الموجودة في أنظمة الذكاء الاصطناعي إزاء الأعراق والإثنيات المختلفة.
مشكلة التحيز أعمق مما نعتقد
وعلى الرغم من أنني كتبت الكثير حول انعكاس تحيزاتنا ضمن نماذج الذكاء الاصطناعي، فإن هذا لم يخفف من شعوري بالاستياء لدى رؤية أشكال البشر من وجهة نظر الذكاء الاصطناعي، الذين يتسمون بدرجة عالية من الشحوب والذكورة والرتابة. كان هذا صحيحاً على وجه الخصوص بالنسبة إلى دال-إي 2 الذي يولد صور رجال بيض البشرة عند تلقي تعليمات مثل "رئيس تنفيذي" أو "مدير" في 97% من الحالات.
إضافة إلى هذا، فإن مشكلة التحيز أعمق مما قد نعتقد، وهي متجذرة في العالم الواسع الذي بناه الذكاء الاصطناعي. لقد بُنِيَت هذه النماذج من قبل شركات أميركية، ودُرِّبَت باستخدام بيانات من أميركا الشمالية؛ ولهذا فهي تولد صوراً أميركية الطابع، حتى عندما يُطلَب منها توليد صور للأشياء اليومية العادية التي نصادفها في الحياة اليومية مثل الأبواب أو المنازل، وذلك كما قال لي الباحث في جامعة ستانفورد، فيدريكو بيانشي.
ومع امتلاء العالم على نحو متزايد بالصور التي ولدها الذكاء الاصطناعي، سيزداد انتشار الصور التي تعكس التحيزات والثقافة والقيم الأميركية. من كان يدري أن الذكاء الاصطناعي سيتحول في نهاية المطاف إلى أداة فائقة الأهمية في خدمة القوة الناعمة الأميركية؟
إذاً، كيف سنعالج هذه المشكلات؟ بُذِلَت جهود كبيرة في إصلاح التحيزات في مجموعات البيانات التي دُرِّبت أنظمة الذكاء الاصطناعي باستخدامها؛ لكن ورقتين بحثيتين جديدتين تقترحان طرائقَ جديدة ومثيرة للاهتمام.
فماذا لو طلبنا من النموذج تقديم نتائج وإجابات أقل تحيزاً، ببساطة، بدلاً من تعديل بيانات التدريب لتقليل تحيزها؟
أداة فير ديفيوجن
عمل فريق من الباحثين في جامعة دارمشتات التقنية في ألمانيا، والشركة الناشئة هاغينغ فيس، على تطوير أداة تحمل اسم "فير ديفيوجن" (Fair Diffusion)، وهي أداة تزيد سهولة تعديل نماذج الذكاء الاصطناعي لتوليد الصور التي يرغب فيها المستخدمون. وعلى سبيل المثال؛ يمكن توليد صور لأغراض الاستخدام العام لرؤساء تنفيذيين في بيئات مختلفة، واستخدام فير ديفيوجن بعد ذلك للاستعاضة عن الرجال البيض في هذه الصور بنساء أو أشخاص من إثنيات مختلفة.
وكما تبين أدوات هاغينغ فيس؛ فإن نماذج الذكاء الاصطناعي التي تولد الصور على أساس أزواج الصور والنصوص ضمن بيانات التدريب المكونة من أزواج صورة-نص، تميل افتراضياً إلى تحيزات شديدة فيما يتعلق بالوظائف والنوع الاجتماعي (الجنس) والإثنية. أما أداة فير ديفيوجن للباحثين الألمان، فهي مبنية على تقنية طوروها بأنفسهم وتحمل اسم "التوجيه الدلالي"؛ حيث تتيح للمستخدم توجيه كيفية توليد الذكاء الاصطناعي لصور الأشخاص وتعديل النتائج.
ويقدم نظام الذكاء الاصطناعي صورة قريبة للغاية من الصورة الأصلية، وفقاً لأستاذ علم الحاسوب في جامعة دارمشتات التقنية، كريستيان كيرستينغ، الذي شارك في هذا العمل.
تتيح هذه الطريقة للمستخدم تشكيل الصور التي يرغب فيها دون أن يضطر إلى اللجوء إلى محاولة تحسين مجموعة البيانات المتحيزة التي استُخدمت في تدريب نموذج الذكاء الاصطناعي، وهي مهمة شاقة وتستغرق الكثير من الوقت، وفقاً لطالب الدكتوراة في جامعة دارمشتات التقنية، فيليكس فريدريخ، الذي عمل على هذه الأداة.
نماذج قد تصحح تحيزاتها ذاتياً
لكن هذه الأداة ليست مثالية، فتغيير الصور بالنسبة إلى بعض الوظائف مثل "عامل غسل الأطباق"، لم يؤدِّ إلى نتائج جيدة؛ لأن الكلمة المستخدمة في هذه الحالة "Dishwasher" تشير إلى العمل والآلة في الوقت نفسه. إضافة إلى هذا، لا تعمل هذه الأداة إلا مع نوعين من الجنس. وفي نهاية المطاف، فإن تنوع الأشكال البشرية التي يستطيع النموذج توليدها سيبقى محدوداً بالصور الموجودة في مجموعة التدريب الخاصة بنظام الذكاء الاصطناعي. غير أنه على الرغم من ضرورة إجراء المزيد من الأبحاث، فإن هذه الأداة قد تمثل خطوة مهمة نحو التقليل من التحيزات.
ويبدو أن تقنية مماثلة أثبتت نجاحها مع النماذج اللغوية، فقد بين باحثون من مختبر الذكاء الاصطناعي أنثروبيك (Anthropic) أن استخدام تعليمات بسيطة يمكن أن يوجه النماذج اللغوية الكبيرة نحو تقديم محتوىً أقل إساءة كما كتب زميلي نيال فيرث مؤخراً. استخدم فريق أنثروبيك نماذج لغوية مختلفة بأحجام متعددة، ووجد أنه إذا كان النموذج كبيراً بما يكفي، فإنه قادر على تصحيح نفسه للتخلص من بعض التحيزات بمجرد الطلب منه.
لا يعرف الباحثون سبب حدوث هذا الأمر في نماذج الذكاء الاصطناعي لتوليد النصوص والصور. غير أن فريق أنثروبيك يعتقد أن السبب هو ازدياد حجم بيانات التدريب مع ازدياد حجم النموذج؛ بحيث تتضمن في الوقت نفسه الكثير من الأمثلة على السلوك المتحيز أو النمطي لكنها تتضمن أيضاً أمثلة لأشخاص يقاومون هذا السلوك المتحيز.
بدأت أدوات الذكاء الاصطناعي تكتسب شعبية متزايدة في توليد الصور المتاحة لأغراض الاستخدام العام. ويمكن أن تكون الأدوات مثل فير ديفيوجن مفيدة للشركات التي ترغب في أن تكون صورها الترويجية معبرة عن تنوع المجتمع كما يقول كيرستينغ.
تلاقي هذه الأساليب لمكافحة تحيزات الذكاء الاصطناعي الترحيب والاستحسان في الأوساط البحثية، وتثير تساؤلات واضحة حول وجوب إدماجها في النماذج منذ بداية تصميمها. حالياً، تؤدي أفضل أدوات الذكاء الاصطناعي التوليدي لدينا إلى تضخيم الصور النمطية المسيئة على نطاق واسع.
ويتعين علينا ألا ننسى أن التحيز ليس مجرد عطل يمكن إصلاحه من خلال حل هندسي ذكي. وكما أشار باحثون في المعهد الوطني الأميركي للمعايير والتكنولوجيا، نيست (NIST) اختصاراً، في تقرير يعود إلى السنة الماضية؛ فإن مسألة التحيز تتجاوز نطاق البيانات والخوارزميات. ويجب أن ندرس طريقة استخدام البشر للذكاء الاصطناعي والسياق الاجتماعي الأوسع لاستخدامه، وهي مسائل يمكن أن تسهم في مشكلة التحيز.
وسيتطلب تقليل التحيزات بفعالية درجةً أعلى بكثير من التدقيق والتقييم والشفافية إزاء كيفية بناء نماذج الذكاء الاصطناعي، وطبيعة البيانات المستخدمة في تدريبها وفقاً لنيست. غير أنه في خضم هذا السباق المحموم الذي نشهده في مجال الذكاء الاصطناعي، أخشى أن تأثير هذه العوامل سيصبح ضئيلاً مقارنة بتأثير مُعامل آخر؛ وهو تحقيق الأرباح.