
مايكروسوفت تكشف عن اختراق طال “العملاء النائمين” في نماذج الذكاء الاصطناعي
تطور مايكروسوفت منهجية أمنية جديدة هدفها حماية نماذج اللغة الكبيرة من تهديدات سيبرانية تعرف بالعملاء النائمين، التي تضم تعليمات مخفية تظل خاملة داخل النموذج حتى تُفَعَّل بواسطة كلمة مرور أو سياق معين.
تتعلق هذه التهديدات بأن تحتوي النماذج على أكواد مخفية يمكن أن تسرب بيانات حساسة أو تُنفذ هجمات برمجية خبيثة ضد المستخدمين أو المؤسسات عند تفعيلها.
تُبين الطريقة الجديدة، وفق تقارير AI News، أنها تعتمد على تحليل سلوك النموذج في بيئات معزولة ومحاكاة آلاف السيناريوهات لاستثارة أي استجابات غير طبيعية.
تمكنت مايكروسوفت من رصد أنماط دقيقة تشير إلى وجود ثغرات خلفية، مما يمكّن المطورين من تنظيف النماذج قبل نشرها للاستخدام التجاري أو المؤسسي، وهو أمر حيوي مع تزايد الاعتماد على الذكاء الاصطناعي في البنى التحتية الحساسة.
تندرج هذه الخطوة ضمن استراتيجية “الأمن أولًا” التي تتبناها شركات التقنية الكبرى في 2026 لمواجهة تحديات الذكاء الاصطناعي الهجومي، مع سعي مايكروسوفت لضمان أن تكون أدواتها مثل كوبايلوت محصنة ضد أي اختراقات من جهات فاعلة معادية.
آليات الكشف عن الثغرات المخفية
تستخدم التقنية الجديدة نماذج ذكاء اصطناعي رقابية تفحص الأوزان العصبية والروابط داخل النموذج الكبير لرصد أنماط غير منطقية قد تشير إلى تعليمات مشروطة مخفية، وتساعد الشركات على اعتماد الذكاء الاصطناعي في مجالات مثل التمويل والدفاع دون الخوف من برمجيات خبيثة قد تلتف على بروتوكولات الأمن التقليدية.