منوعات

تقرير يحذر المؤسسات من هجمات الذكاء الاصطناعي التي تتجاوز كل الدفاعات التقليدية

الهجمات المدفوعة بالذكاء الاصطناعي وتأثيرها في الدفاع الرقمي

تشير تقرير Zscaler السنوي لعام 2026 إلى أن الهجمات المدفوعة بالذكاء الاصطناعي تتحرك بسرعة عالية تجعل الدفاعات البشرية والتقليدية عاجزة عن الاستجابة في الوقت المناسب.

يؤكد التقرير أن المهاجمين، سواء كانوا عصابات إجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة في أقل من 16 دقيقة، وهو زمن قياسي يتطلب تحولاً جذرياً في استراتيجيات الحماية الرقمية.

اعتماد الذكاء الاصطناعي والتحدي الذي يواجه الأمن المؤسسي

تشير ThreatLabz 2026 إلى أن تبني الشركات للذكاء الاصطناعي يتجاوز قدرتها على حماية أنظمتها، مع حركة الهجمات المدعومة بالذكاء الاصطناعي بسرعة تفوق الدفاعات التقليدية، فتصبح الأنظمة الذكية أداة رئيسية للهجمات الآلية بسرعة آلة، سواء من برمجيات الجريمة أو الهجمات المدعومة من الدول، حيث ينتقل الاختراق من اكتشاف الثغرة إلى سرقة البيانات خلال دقائق.

يرتفع استخدام AI في المؤسسات بنسبة 200% في قطاعات رئيسية، وتفتقر كثير من الشركات إلى جرد كامل للنماذج الذكية أو الوظائف المدمجة فيها، ما يخلق ملايين التفاعلات غير المراقبة وتدفقات ضخمة من البيانات الحساسة غير المحمية، كما أن الذكاء الاصطناعي موجود بالفعل في أدوات الأعمال اليومية وتُضاف الميزات الذكية بشكل افتراضي، ما يجعلها تتجاوز مراقبة الأمن التقليدي ولا يمكن حظرها عبر جدران الحماية.

الهجمات بسرعة الآلة والثغرات الشاملة

أظهرت اختبارات الفريق الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة، مع وجود ثغرات حرجة في كل الأنظمة التي جرى تحليلها، وتعتمد الأنظمة على تراكم أذونات متعددة قد تولد سلاسل هجوم غير مقصودة للوصول إلى بيانات حساسة أو أنظمة حيوية.

وتبلغ نسبة الهوية غير البشرية مقارنة بالبشر 82:1، مع محدودية الرقابة على ما يمكن أن تفعله نماذج AI، وتزايد المخاطر عبر واجهات برمجة التطبيقات التي تمنح صلاحيات مستقلة تزيد من صعوبة السيطرة على المخاطر.

مشاكل الكود وجودة النماذج

تشير النتائج إلى أن سباق AI دفع فرق التطوير إلى إصدار كود غير محكم، ما يؤدي إلى ثغرات أمنية، وتنتشر الشركات ميزات AI بدون مراجعة أمنية كافية، وتوجد نقاط نهاية للنماذج بلا مصادقة وتجاوزات لصلاحيات واجهات برمجة التطبيقات وتجاوز إعدادات الأمان الافتراضية.

حجم المخاطر والبيانات

ارتفع نقل البيانات إلى تطبيقات AI/ML في 2025 إلى 18,033 تيرابايت، ما يعادل نحو 3.6 مليار صورة رقمية، مع تسجيل 410 ملايين انتهاك لسياسات حماية البيانات (DLP) المرتبطة بـ ChatGPT، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية.

الحوكمة كحل رئيسي

تشير إلى أن المشكلة الأساسية ليست في الذكاء الاصطناعي نفسه، بل في حوكمة الهوية وإدارة الوصول، فالمؤسسات التي تعترف بأن أنظمة AI كيانات تتطلب اكتشافًا وإدارة دورة حياة وإشرافًا سلوكيًا ستكون قادرة على تبني AI بشكل مستدام وآمن دون إبطاء الابتكار.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى