كيف يمكن التوصل إلى ذكاء اصطناعي غير منحاز؟ وما تأثير انحيازه على أماكن تطبيقاته؟

4 دقائق
كيف يمكن التوصل إلى ذكاء اصطناعي غير منحاز؟ وما تأثير انحيازه على أماكن تطبيقاته؟
حقوق الصورة: shutterstock.com/ ProStockStudio

يعد تحيز خوارزميات الذكاء الاصطناعي مشكلة كبيرة تواجه شركات التكنولوجيا والمؤسسات، فهذا التحيز يؤدي إلى تضخيم التمييز وعدم المساواة بين البشر، خاصة على حساب الأقليات العرقية والنساء والفقراء.

المقصود بالتحيز هو الافتقار إلى الإنصاف، ويمكن تلخيصه على أنه تفضيل مجموعة من البيانات دون غيرها. على سبيل المثال، حين نبحث في جوجل عن صور أطفال رضّع (Babies)، ستكون معظم الصور الظاهرة في نتائج البحث لأطفال من ذوي البشرة البيضاء، ولن نجد سوى القليل جداً من الصور لأطفال ذوي البشرة الداكنة أو ذوي الملامح الآسيوية.

كيف يمكن التوصل إلى ذكاء اصطناعي غير منحاز؟ وما تأثير انحيازه على أماكن تطبيقاته؟
حقوق الصورة: إم آي تي تكنولوجي ريفيو العربية.

اقرأ أيضاً: باحثون من إم آي تي يطورون طريقة مبتكرة لتقليل تحيز الذكاء الاصطناعي

سنجد نفس الشيء عند إجراء بحث آخر عن صور لفتاة صغيرة (Little girl) باستخدام محرك البحث مايكروسوفت بينغ، تكون معظم الصور لفتيات بملامح أوروبية.

كيف يمكن التوصل إلى ذكاء اصطناعي غير منحاز؟ وما تأثير انحيازه على أماكن تطبيقاته؟
حقوق الصورة: إم آي تي تكنولوجي ريفيو العربية.

قد يرى البعض أن هذا الأمر غير مهم، فما هي المشكلة لو كانت الخوارزميات متحيزة وفضلت صور ذوي البشرة البيضاء؟

المشكلة ليست بهذه البساطة ولا تتعلق فقط بنتائج البحث على جوجل وغيرها من محركات البحث. بل إنها أكبر بكثير، تخيل فقط ما يمكن أن يحدث في المستقبل إذا أصبحت هذه الخوارزميات المتحيزة مسؤولة عن الحكم واتخاذ القرارات المصيرية بالنيابة عن البشر، مثل تحديد الأشخاص الذين يُحتمل أن يكونوا خطرين على المجتمع، أو الذين يستحقون الحصول على قروض من البنوك، أو المرشحين الأفضل للوظائف.

في دراسة أجراها موقع بروبابليكا (Propublica)، تم اختبار برنامج مدعوم بالذكاء الاصطناعي يُستخدم في الولايات المتحدة الأميركية لتقييم الأشخاص المدانين بارتكاب جرائم والتنبؤ بمن يمكن أن يرتكبوا جرائم مرة أخرى، تبين بعد الاختبار أن البرنامج يحدد المجرمين ذوي البشرة الداكنة على أنهم خطرين للغاية، في حين يحدد المجرمين ذوي البشرة البيضاء على أنهم أقل خطورة، وقد عارضت الشركة المطورة لهذا البرنامج نتائج الدراسة.

اقرأ أيضاً: هل التحيز الخوارزمي محض صدفة حقاً كما تقول شركات وادي السيليكون؟

التحيز لا يشمل البشر فقط!

تحيز خوارزميات الذكاء الاصطناعي لا يقتصر فقط على التمييز ضد الأفراد، أي البشر؛ بل يمكن أن تكون الخوارزميات متحيزة تجاه الكائنات الحية الأخرى والمنتجات من جميع الأنواع. لتفهم ما المقصود، دعنا نفترض أننا قمنا بتوظف مطورين أميركيين أو أوروبيين فقط لإنشاء خوارزميات البحث وتصنيف السلع على مواقع التجارة الإلكترونية، هذا الأمر سيؤدي بكل تأكيد إلى جعل الخوارزميات تفضل السلع والمنتجات التي يفضلها هؤلاء المطورون على حساب سلع ومنتجات أخرى، على سبيل المثال، ستفضل الخوارزميات فساتين الزفاف البيضاء التي يشيع ارتداؤها في حفلات الزفاف الأميركية والأوروبية، وسوف تستبعد فساتين الزفاف الملونة التي تشيع في بعض الدول.

في حال استخدام هذه الخوارزميات، سيتكبد بائعو فساتين الزفاف الملونة خسائر كبيرة لأن الفساتين التي يبيعونها لن تظهر في نتائج البحث.

اقرأ أيضاً: كيف يتحيز الذكاء الاصطناعي ولماذا يصعب إصلاحه؟

لماذا تكون الخوارزميات متحيزة؟

لاحظ الخبراء التمييز العنصري والتمييز على أساس السن والتمييز بين الجنسين وما إلى ذلك منذ سنوات، لكن حتى الآن، لم تتم معالجة المشكلة.

في نوفمبر 2016. تم إنشاء رابطة العدالة الخوارزمية (AJL) من قبل جوي بولامويني، وهي طالبة دراسات عليا في معهد إم آي تي. تعتقد بولامويني -وهي من ذوات البشرة الداكنة- أن مشكلة تحيز الخوارزميات نشأت بسبب الافتقار للتنوع في صناعة التكنولوجيا، كان ذلك واضحاً في تقارير التنوع التي أصدرتها شركات التكنولوجيا العملاقة:

تقول بولامويني: "إذا اختبرت نظامك على أشخاص يشبهونك وتبين أنه يعمل بشكل جيد، فلن تعرف أبداً أن هناك مشكلة".

اقرأ أيضاً: فيسبوك تقول إنها ستبحث عن التحيز العرقي في خوارزمياتها

كيف يمكن حل مشكلة تحيز الخوارزميات؟

إذا أردنا حل مشكلة تحيز الخوارزميات، يجب علينا التأكيد على التنوع في المراحل الأولى من أي عملية تطوير أو مشروع لإنشاء خوارزميات ذكاء اصطناعي، يجب أن يكون المطورون الذين يجمعون البيانات ويبنون أنظمة الذكاء الاصطناعي من خلفيات مختلفة، دون أن نستبعد أي شريحة من البشر.

على الصعيد القانوني والسياسي، يجب على المشرعين سن قوانين تضمن أن تكون تدابير الحد من تحيز الخوارزميات إلزامية لكل الشركات وليست اختيارية، ومحاسبة المسؤولين عن تطوير خوارزميات متحيزة تجاه أي مجموعة من البشر أو البيانات.

بالإضافة إلى ذلك، قد يكون التعرض للثقافات الأخرى واكتشافها مفيداً في هذا الصدد، يمكن داخل الشركات والمؤسسات التي تطور الخوارزميات تثقيف المطورين بشأن الاختلافات الثقافية وأنماط الحياة المختلفة، ما يخلق وعياً حول مجموعات معينة داخل مجتمعهم والمجتمعات الأخرى ربما تم إهمالها أو عدم أخذها في الاعتبار.

اقرأ أيضاً: الذكاء الاصطناعي في الطب: خطر التحيز يهدد تطبيقاته الواسعة

على الرغم من الحلول العديدة المقترحة لحل مشكلة تحيز خوارزميات الذكاء الاصطناعي، يرى الكثير من الخبراء أننا لن نكون قادرين على حل المشكلة قريباً، وذلك لأن معظم الشركات التي تطور الخوارزميات تعمل بسرية تامة ولا تسمح لأحد بالاطلاع على آلية عملها أو البيانات المستخدمة في تدريبها، نحن بحاجة لأن نفهم التحيز ونتعرف عليه ونقيسه، وهو يتطلب جعل الخوارزميات مفتوحة المصدر، ليتمكن الخبراء المستقلين من تحليل عملها.

في حديث مع هيئة الإذاعة البريطانية بي بي سي (BBC)، يلخص الأستاذ المساعد في كلية الحوسبة بجامعة يوتا الأميركية سوريش فينكاتاسوبرامانيان بعض الحلول التي قد تساعد علاج المشكلة:

  • إنشاء مجموعات بيانات أفضل وأكثر تنوعاً لتدريب الخوارزميات.
  • بناء الخوارزميات بحيث يكون من الممكن فهم آلية اتخاذها للقرارات، لنكون قادرين على اكتشاف وفهم سبب حصول أي تحيز.

المحتوى محمي