تشير الدراسات إلى أن التحيز في الذكاء الاصطناعي يعكس تحيزات البشر ويصبح مرآة لما نمتلكه من قيم وتصورات. وعلى الرغم من أن الأنظمة الرقمية تبدو محايدة، إلا أنها تعتمد على بيانات تعلم وتقييم تخضعت للتأثيرات البشرية وتترجم إلى نتائج ملموسة. على سبيل المثال في معالجة اللغة الطبيعية، يميل المساعدون الصوتيون إلى ربط كلمات بنمط تقليدي، فترتبط كلمة ‘رجل’ عادةً بمهنة ‘طبيب’ و’امرأة’ بمهنة ‘ممرضة’ في سياقات رِائجة. هذه التحيزات تعكس المجتمع وتؤثر في كيفية استخدام هذه التقنيات وتفاعل الناس معها.
كيف يظهر التحيز في الذكاء الاصطناعي؟
يظهر التحيز أثناء تدريب نماذج التعلم الآلي عندما تكون البيانات غير ممثلة بشكل كافٍ لمختلف المجموعات، فتنشأ ثغرات في المعرفة التي تبنيها النماذج. ويدخل البشر في تصميم البيانات وتفسيرها، ما يجعل النماذج تتبنى انحيازاتهم وتميل نتائجها. ونتيجة ذلك ترتفع مخاطر وجود أخطاء وتوجهات غير عادلة عند تطبيق هذه التقنيات في الحياة اليومية مثل فحص المرشحين للوظائف أو تقنيات التعرف على الوجه.
طرق الحد من التحيز
تبدأ خطوات الحد من التحيز بتوسيع تنوع عينات التدريب قدر الإمكان من حيث الجنس والعرق والعمر، مع ضمان مشاركة مطوري الذكاء الاصطناعي من خلفيات مختلفة. كما يجب على الشركات تعزيز التمثيل النسائي في الوظائف التقنية واعتماد سياسات واضحة تدعم الشفافية والدقة في بناء النماذج. كما ينبغي إجراء تقييمات دورية للنماذج واستخدام معايير للكشف عن التحيز وتحديث النماذج عند وجود خلل مثبت.
أهمية التغلب على التحيز
يؤثر التحيز عندما تستخدم أنظمة لتمييز المرشحين أو في تطبيقات الأمن على المجتمع بشكل عميق، فتصبح النتائج غير عادلة وتقل فرص المشاركة العامة. كما ترتبط مشكلات التعرف على الوجه بتبعات اجتماعية واقتصادية تؤثر في الحريات وتزيد من عدم المساواة إذا لم تُدار بشكل صحيح. لذا تعتمد المؤسسات إصلاحات مستمرة في التصميم والتقييم لضمان عدالة الاستخدام وتعزيز التنوع والشمول في التطوير المستقبلي.




