أخر الاخبار

انحيازات الذكاء الاصطناعي وأسبابها وكيفية تجنبها

انحيازات الذكاء الاصطناعي وأسبابها وكيفية تجنبها
تتوسَّع قدرات الذكاء الاصطناعي (AI) بشكلٍ كبير، وتتوسع استخداماته في الوقت ذاته: من مجال الإعلان الرقمي، إلى المجال الطبي، أصبح الذكاء الاصطناعي شائعاً جداً. أدّى استخدام الذكاء الاصطناعي في المجالات الأكثر حساسية مثل برامج التعرف على الوجه وخوارزميات التوظيف وتوفير الرعاية الصحية إلى إثارة الجدل حول التحيّز والإنصاف.

التحيّز هو جانبٌ مدروسٌ جيداً في علم النفس البشري، يكشف عن تفضيلاتنا وتحيّزاتنا اللاواعية، والآن نرى أن الذكاء الاصطناعي يعكس بعض هذه التحيّزات في خوارزمياته. إذن، كيف يُصبح الذكاء الاصطناعي متحيّزاً؟ ولماذا هذا مهم؟

تحيّز الذكاء الاصطناعي

انحيازات الذكاء الاصطناعي وأسبابها وكيفية تجنبها
يمكن للباحثين والمطورين إدخال التحيّز في أنظمة الذكاء الاصطناعي بطريقتين (وهذه أمثلة):

أولاً: يمكن تضمين التحيّزات المعرفية للباحثين في خوارزميات التعلم الآلي عن طريق الخطأ. التحيّزات المعرفيّة هيَّ تصوّراتٌ بشريّة غير واعية يمكن أن تؤثر على كيفية اتخاذ الناس للقرارات. تصبح هذه مشكلةٌ مهمة عندما تكون التحيّزات تتعلق بأشخاص أو مجموعات من الناس ويمكن أن تضر بهم.

يمكن تقديم هذه التحيزات بشكل مباشر عن طريق الخطأ، أو قد يقوم الباحثون بتدريب الذكاء الاصطناعي على مجموعات بيانات تأثرت هي نفسها بالتحيّز. على سبيل المثال، يمكن تدريب الذكاء الاصطناعي للتعرف على الوجه بمجموعة بيانات تتضمن فقط الوجوه ذات البشرة الفاتحة. في هذه الحالة، سيكون أداء الذكاء الاصطناعي أفضّل في التعامل مع الوجوه ذات البشرة الفاتحة. يُعرف هذا الشكل من أشكال التحيّز للذكاء الاصطناعي بالإرث السلبي.

ثانياً، يمكن أن تنشأ التحيّزات عندما يتم تدريب الذكاء الاصطناعي على مجموعات بيانات غير كاملة. على سبيل المثال، إذا تم تدريب الذكاء الاصطناعي على مجموعة بيانات لا تتضمن سوى علماء الكمبيوتر، فلن يمثل المجتمع بأكمله. وهذا يؤدي إلى الخوارزميات التي تفشل في تقديم تنبؤات دقيقة.

أمثلة من العالم الحقيقي لانحياز الذكاء الاصطناعي

كانت هناك العديد من الأمثلة الحديثة التي تم الإبلاغ عنها لتحيّزات الذكاء الاصطناعي والتي توضِّح خطر السماح لهذه التحيّزات بالتسلل إلى الأنظمة.

  • تحديد أولويات الرعاية الصحية في الولايات المتحدة:

في عام 2019، تم تصميم خوارزمية تعلم آلي لمساعدة المستشفيات وشركات التأمين على تحديد المرضى الذين سيستفيدون أكثر من بعض برامج الرعاية الصحية. استناداً إلى قاعدة بيانات تضم حوالي 200 مليون شخص، فضَّلت الخوارزمية المرضى البيض على المرضى السود.

كان هذا (كما تمَّ تحديده) بسبب الافتراض الخاطئ في الخوارزمية فيما يتعلق بتكاليف الرعاية الصحية المتغيرة بين الأشخاص البيض والسود، وتم تقليل التحيز في النهاية بنسبة 80%.

  • كومباس:

كان ملف تعريف إدارة المخالفين الإصلاحيين للعقوبات البديلة، أو كومباس، عبارة عن خوارزمية ذكاء اصطناعي مصممة للتنبؤ بما إذا كان أشخاص معينون سيعودون للإساءة وارتكاب الجرائم. أنتجت الخوارزمية ضعف الإيجابيات الزائفة للمجرمين السود مقارنةً بالمجرمين البيض. في هذه الحالة، كانت كل من مجموعة البيانات والنموذج معيبين، مما أدى إلى حدوث تحيزٌ شديد.

  • أمازون:

وجدت خوارزمية التوظيف التي تستخدمها أمازون لتحديد مدى ملاءمة المتقدمين للوظائف في عام 2015، متحيّزة لصالح الرجال على النساء بفارقٍ كبير. كان هذا بسبب احتواء مجموعة البيانات على بيانات رجال في معظمها وسيرهم الذاتية لأن معظم موظفي أمازون هم من الذكور.

كيفية إيقاف انحياز الذكاء الاصطناعي؟

انحيازات الذكاء الاصطناعي وأسبابها وكيفية تجنبها
يُحدِث الذكاء الاصطناعي بالفعل ثورة في طريقة عملنا في كل صناعة يدخل لها. إن وجود أنظمة متحيّزة تتحكم في عمليات صنع القرار الحساسة ليس مرغوباً به تماماً، شعبياً وحكومياً.

هناك أمثلة على خوارزميات الذكاء الاصطناعي التي يتم استخدامها بالفعل للمساعدة في صنع القرار البشري عن طريق الحد من تأثير التحيّزات المعرفية البشرية. نظراً لكيفية تدريب خوارزميات التعلم الآلي، يمكن أن تكون أكثر دقة وأقل تحيزاً من البشر في نفس الموقف، والذي يؤدّي في النهاية إلى اتخاذ قرارات أكثر عدلاً.

ولكن، كما أوضحنا، فإن العكس هو صحيحٌ أيضاً. قد تفوق مخاطر السماح للذكاء الاصطناعي بالانخراط في التحيّزات البشرية وتضخيمها بعض الفوائد المحتملة.

في نهاية المطاف، لا تقل جودة الذكاء الاصطناعي إلا بسبب جودة البيانات التي تمَّ تدريبه عليها. يتطلب تطوير خوارزميات غير متحيّزة تحليلاً مسبقاً مكثفاً وشاملاً لمجموعات البيانات التي سيتم تدريب الذكاء الاصطناعي عليها، وهذا سيضمن خِلو البيانات من التحيزات الضمنية. ولكن هذا أصعب مما يبدو لأن الكثير من تحيزاتنا تكون غير واعية وغالباً ما يصعب تحديدها.

تحدّيات منع انحياز الذكاء الاصطناعي

انحيازات الذكاء الاصطناعي وأسبابها وكيفية تجنبها
عند تطوير أنظمة الذكاء الاصطناعي، يجب تقييم كل خطوة من حيث قدرتها على تضمين التحيّز في الخوارزمية. أحد العوامل الرئيسية في منع التحيّز هو التأكد من غرس العدالة بدلاً من التحيّز، في الخوارزمية:

  • العدل: الإنصاف مفهومٌ يصعب تحديده نسبياً. هذا نقاش لم يتم التوصل فيه إلى إجماع مطلقاً. لجعل الأمور أكثر صعوبة، عند تطوير أنظمة الذكاء الاصطناعي، يجب تحديد مفهوم العدالة رياضياً. على سبيل المثال: فيما يتعلق بخوارزمية التوظيف في أمازون، هل سيبدو الإنصاف كتقسيم مثالي بنسبة 50/50 بين الذكور والإناث للوظائف؟ أم نسبة مختلفة؟
  • تحديد الوظيفة: تتمثل الخطوة الأولى في تطوير الذكاء الاصطناعي في تحديد ما سيحققه بالضبط. في حالة استخدام مثال كومباس، ستتنبأ الخوارزمية باحتمالية عودة المجرمين للإجرام. بعد ذلك، يجب تحديد مدخلات البيانات الواضحة لتمكين الخوارزمية من العمل. قد يتطلب ذلك تحديد متغيرات مهمة، مثل عدد الجرائم السابقة أو نوع الجرائم المرتكبة. يعد تحديد هذه المتغيرات بشكل صحيح خطوة صعبة ولكنها مهمة في ضمان عدالة الخوارزمية.
  • مجموعة البيانات: كما غطّينا، السبب الرئيسي لتحيّز الذكاء الاصطناعي هو البيانات غير الكاملة أو غير التمثيلية أو المتحيزة. مثل حالة التعرف على الوجه عبر الذكاء الاصطناعي، يجب فحص بيانات الإدخال بدقَّة للتحقق من التحيّزات والملاءمة والاكتمال قبل عملية التعلم الآلي.
  • السمات: في الخوارزميات، يمكن النظر في سمات معينة. يمكن أن تشمل السمات الجنس أو العرق أو التعليم - أي شيء قد يكون مهماً للمهمة الموكلة للخوارزمية. اعتماداً على السمات التي يتم اختيارها، يمكن أن تتأثر الدقة التنبؤية وانحياز الخوارزمية بشدّة. تكمن المشكلة في أنه من الصعب جداً قياس مدى انحياز الخوارزمية.

يحدث انحياز الذكاء الاصطناعي عندما تقوم الخوارزميات بعمل تنبؤات متحيزة أو غير دقيقة بسبب البيانات المتحيزة أو غير المكتملة أثناء تطوير الخوارزمية وتدريبها. ولكن، الخبر السار هو أنه مع تضاعف التمويل لأبحاث الذكاء الاصطناعي، فمن المحتمل أن نرى طرقاً جديدة لتقليل وحتى القضاء على تحيّز الذكاء الاصطناعي.

اقرأ أيضاً:




وضع القراءة :
حجم الخط
+
16
-
تباعد السطور
+
2
-