تعلن شركة Zscaler في تقريرها السنوي لعام 2026 أن الهجمات المدفوعة بالذكاء الاصطناعي تتحرك بسرعة آلة، ما يجعل الدفاعات البشرية والتقليدية عاجزة عن الاستجابة في الوقت المناسب. يؤكد التقرير أن المهاجمين سواء كانوا عصابات أو مدعومين من دول يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة خلال أقل من 16 دقيقة، وهو زمن قياسي يحتم تحولاً جذرياً في استراتيجيات الحماية الرقمية. يبرز التحذير أن هذه السرعة تتطلب تبني أدوات دفاعية تعتمد على الذكاء الاصطناعي للكشف المبكر والتحييد الاستباقي للتهديدات.

تحليل تريليون معاملة رقمية

وبحسب تحليل TechNewsWorld، شملت الدراسة أكثر من تريليون معاملة رقمية، ووجدت أن 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة بدون إشراف كاف. يؤكد الخبراء أن الفجوة بين قدرات المهاجمين وسرعة استجابة فرق الأمن تتسع بشكل خطير، مما يحتم نشر أنظمة دفاعية تعمل بتقنيات الذكاء الاصطناعي للكشف عن التهديدات وتحييدها بشكل استباقي وفوري. يوضح تحليل ThreatLabz 2026 أن تبني الشركات للذكاء الاصطناعي يتجاوز قدرتها على حماية الأنظمة، مع هجمات مدعومة بالذكاء الاصطناعي تتحرك بسرعة تتجاوز دفاعات المؤسسات التقليدية.

اعتماد سريع يفوق الرقابة والأمان

يذكر التقرير أن استخدام AI في مؤسسات رئيسية ارتفع بنسبة 200%، بينما تفتقر العديد من الشركات إلى جرد كامل للنماذج الذكية والوظائف المدمجة فيها، وهو ما يخلق ملايين التفاعلات غير المراقبة وتدفقات كبيرة من البيانات الحساسة غير المحمية. يشير خبراء إلى أن AI أصبح موجوداً بالفعل في أدوات الأعمال اليومية مع إضافة ميزاته بشكل افتراضي، مما يجعل من الصعب حصره داخل جدران الأمن التقليدية ولا يمكن حظره عبر أنظمة الدفاع التقليدية. تتطلب هذه السهولة في الانتشار تبني آليات حماية جديدة قائمة على AI للكشف والاستجابة.

الهجمات بسرعة الآلة والثغرات الشاملة

تظهر نتائج اختبارات الفريق الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة فقط، مع وجود ثغرات حرجة في جميع الأنظمة التي تم تقييمها. تعتمد هذه الأنظمة على تراكم أذونات متعددة يمكن أن يولد سلاسل هجوم تعرّض البيانات الحساسة للخطر أو أنظمة حيوية للخطر. كما أن وجود نسب عالية من الهويات غير البشرية مقارنة بالبشر تصل إلى 82:1 مع قيود محدودة على حركة نماذج AI وواجهات برمجة التطبيقات التي تمنح صلاحيات مستقلة يزيد من صعوبة السيطرة على المخاطر.

مشاكل الكود وجودة النماذج

تشير النتائج إلى أن سباق تطوير AI دفع فرقاً إلى إصدار كود غير محكم وتقديم ميزات مدعمة بالذكاء الاصطناعي بدون مراجعات أمنية كافية، ووجود نقاط نهاية للنماذج بدون مصادقة، واستغلال APIs بصلاحيات مفرطة، ما يساهم في تجاوز الإعدادات الأمنية الافتراضية. يرى الخبراء أن اعتماد نماذج غير محصنة يزيد من مخاطر الثغرات ويقلل من القدرة على فرض الرقابة على التفاعلات. يلزم وضع إطار أمني صارم يرافق سرعة الابتكار في بيئات AI.

حجم المخاطر والبيانات

وصلت حركة البيانات إلى تطبيقات AI/ML في 2025 إلى 18,033 تيرابايت، ما يعادل نحو 3.6 مليار صورة رقمية، مع تسجيل 410 ملايين انتهاك لسياسات حماية البيانات المرتبطة بمستخدمي AI، بما في ذلك محاولات مشاركة معلومات حساسة كأرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية. تؤكد المعطيات أن انتقال البيانات بهذه الكميات يجعل من الضروري وجود ضوابط صارمة للخصوصية وإدارة البيانات وتحديد الوصول. يعول على أنظمة الكشف والتدقيق الديناميكية لكي تتم مراقبة الاستعمالات وتحديد المخاطر قبل وقوعها.

الحوكمة هي الحل

توضح النتائج أن المشكلة ليست في الذكاء الاصطناعي بذاته، بل في حوكمة الهوية وإدارة الوصول التي يجب أن تعترف بأن أنظمة AI كيانات تتطلب اكتشافاً وإدارة دورة حياة وإشرافاً سلوكيًا. تفرض هذه الحوكمة اعتماد سياسات موحدة لإدارة الهوية وتحديد صلاحيات الوصول وتسجيل الأنشطة وتدقيقها بشكل مستمر، بما يسمح بتبنٍ آمن للذكاء الاصطناعي دون تعطيل الابتكار. بذلك يمكن للشركات اعتماد الذكاء الاصطناعي بشكل مستدام وآمن مع تعزيز قدرة فرق الأمن على الاستجابة السريعة للتهديدات.

شاركها.