أطلق خبراء تقنيون تحذيرات شديدة اللهجة من ظاهرة تسميم نماذج الذكاء الاصطناعي المتزايدة. يرون أن النماذج تتدرّب على محتوى غير موثوق توليده أنظمة ذكاء اصطناعي أخرى، مما يخلق حلقة مفرغة من البيانات الرديئة وتنتقل إلى المخرجات. وتؤدي هذه العملية إلى تضخيم الأخطاء والتحيزات وتوجيه الإجابات إلى نتائج غير منطقية ومضللة في بعض الحالات. وفي تقارير صدرت في مارس 2026، أشار محللون إلى أن الاعتماد المتزايد على معلومات آلية غير متحققة يعرّض قرارات المؤسسات لمخاطر كبيرة ويضعها أمام اختبارات حقيقية.
أبعاد التهديد وآثاره
تشير تقارير صادرة عن منصة ZDNet إلى أن المؤسسات تغرق حالياً في طوفان من المحتوى الآلي غير المتحقق. ونقلت هذه التقارير عن محللي Gartner قولهم إن هذه المدخلات المعيبة تنتقل عبر مسارات العمل الآلية ونظم اتخاذ القرار، ما يجعل النتائج أسوأ بكثير من الواقع الحالي.
حوكمة البيانات والوقاية
تؤكد التحذيرات أهمية تطبيق مبادئ الثقة المعدومة على حوكمة البيانات، وهو مفهوم يعاد توجيهه من حماية الشبكات إلى تدقيق جودة وأصالة كل معلومة تدخل في تدريب النماذج. ويجدر تنقية بيانات التدريب وحمايتها فورًا ومراقبة مصادرها للتحقق من صحتها قبل استخدامها في التدريب. وتسهم هذه الإجراءات في تقليل مخاطر التسمم التدريبي وتعزز موثوقية النماذج في القطاعات الحيوية مثل الرعاية الصحية والخدمات المالية والأمن السيبراني.
دورة التدهور الذاتي وأسس الاستدامة
وتحذر الدلائل من أن التدريب المستمر على بيانات اصطناعية يقود إلى فقدان النماذج فهم الواقع البشري، فتتصاعد الإجابات غير المنطقية والمضللة. لذا يجب اتباع حوكمة البيانات والتحقق من مصادرها وتنقيتها كشرط لاستدامة الأداء. ويُشار إلى مبدأ GIGO (Garbage In, Garbage Out) لتفسير أثر إدخال بيانات خاطئة، مع الدعوة إلى عمليات تدقيق وتحديث مستمرة لبيانات التدريب.




