منوعات

تقرير يحذر المؤسسات من هجمات الذكاء الاصطناعي التي تتجاوز كل الدفاعات التقليدية

تشير تقارير Zscaler السنوية لعام 2026 إلى أن الهجمات المدفوعة بالذكاء الاصطناعي تتحرك بسرعة الآلة، مما يجعل الدفاعات البشرية والتقليدية عاجزة عن الاستجابة في الوقت المناسب.

ويؤكد التقرير أن المهاجمين، سواء كانوا عصابات إجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة في أقل من 16 دقيقة، وهو زمن قياسي يتطلب تحولا جذريا في استراتيجيات الحماية الرقمية.

تحليل تقارير TechNewsWorld حول تحليل لأكثر من ترليون معاملة رقمية وجد أن 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة دون رقابة كافية، ويؤكد الخبراء أن الفجوة بين قدرات المهاجمين وسرعة استجابة فرق الأمن تتسع بشكل خطير، ما يدفع الشركات إلى اعتماد أنظمة دفاعية قائمة على الذكاء الاصطناعي لكشف التهديدات وإحيائها بشكل استباقي وفوري.

وتوضح ThreatLabz 2026 أن تبني AI يتجاوز قدرة المؤسسات على الحماية، مع تحرك الهجمات المدعومة بالذكاء الاصطناعي بسرعة تفوق الدفاعات التقليدية. فهذه الأنظمة الذكية صارت أداة رئيسية للهجمات الآلية بسرعة آلة، سواء من برمجيات الجريمة أو الهجمات المدعومة من الدول، حيث ينتقل الاختراق من اكتشاف الثغرة إلى سرقة البيانات في دقائق قليلة.

اعتماد سريع يفوق الرقابة والأمان

أوضح التقرير أن استخدام AI في المؤسسات زاد بنسبة 200% في قطاعات رئيسية، بينما تعاني كثير من الشركات من عدم وجود جرد كامل للنماذج الذكية أو الوظائف المدمجة فيها، مما يخلق ملايين التفاعلات غير المراقبة وتدفقات ضخمة من البيانات الحساسة غير المحمية. ويذكر الخبراء أن الذكاء الاصطناعي موجود بالفعل في أدوات الأعمال اليومية، حيث تُضاف الميزات الذكية بشكل افتراضي، ما يجعلها تتجاوز مراقبة الأمن التقليدي ولا يمكن حظرها عبر جدران الحماية التقليدية.

الهجمات بسرعة الآلة والثغرات الشاملة

أظهرت اختبارات الفريق الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة، مع وجود ثغرات حرجة في كل الأنظمة التي تم تحليلها. وتعتمد الأنظمة على تراكم أذونات متعددة يمكن أن تولد سلاسل هجوم للوصول إلى بيانات حساسة أو أنظمة حيوية. كما أن نسبة الهويات غير البشرية إلى البشرية وصلت الآن إلى 82:1، وتزيد واجهات برمجة التطبيقات التي تمنح صلاحيات مستقلة من صعوبة السيطرة على المخاطر.

تواجه مشاكل في جودة الكود ونماذج AI حيث أدى سباق التطوير إلى إصدار كود غير محكم وطرح ميزات AI دون مراجعة أمنية كافية، مع نقاط نهاية للنماذج بلا مصادقة واستغلال APIs بصلاحيات مفرطة وتجاوز إعدادات الأمان الافتراضية.

حجم المخاطر والبيانات

ارتفع نقل البيانات إلى تطبيقات AI/ML في 2025 إلى 18,033 تيرابايت، ما يعادل نحو 3.6 مليار صورة رقمية، وتسجيل 410 مليون انتهاك لسياسات حماية البيانات المرتبطة بـChatGPT وحده، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية.

الحوكمة هي الحل

يشير التقرير إلى أن المشكلة ليست في AI نفسه بل في حوكمة الهوية وإدارة الوصول. فالمؤسسات التي تعترف بأن أنظمة AI كيان يجب اكتشافه وإدارته ومراقبته سلوكيًا طوال دورة حياته ستكون قادرة على تبني AI بشكل مستدام وآمن دون إبطاء الابتكار.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى