أوضح بحث مشترك أجرته شركتا الأمن السيبراني سينتينل وان وسينسيس على مدار 293 يوماً أن نماذج الذكاء الاصطناعي المفتوحة المصدر قد تكون عرضة للاستغلال من قبل القراصنة والمجرمين، وهو ما يشكل مخاطر أمنية عالمية متزايدة.
تشير النتائج إلى أن القراصنة يمكنهم بسهولة السيطرة على أجهزة الحواسيب التي تشغّل نماذج لغوية ضخمة خارج القيود والضوابط التي تفرضها منصات الذكاء الاصطناعي الكبرى، واستخدامها في أنشطة غير قانونية مثل حملات البريد المزعج، وإنشاء محتوى تصيدي، ونشر حملات تضليل إعلامي، مع تجاوز بروتوكولات الأمان المعتمدة.
أوامر النظام ونطاق الاستخدام المحتمل
حللت الدراسة عمليات نشر عامة لنماذج لغوية مفتوحة المصدر تعمل عبر أداة أولاما، وتبيّن أن نحو ربع النماذج التي تمت دراستها تحتوي على أوامر النظام التي تحدد سلوك النموذج، وأن 7.5% منها قد تتيح أنشطة ضارة.
كما أظهرت النتائج أن حوالي 30% من الخوادم التي تشغّل هذه النماذج تقع في الصين، ونحو 20% في الولايات المتحدة، مع وجود آلاف النماذج المفتوحة المصدر التي استضافة على الإنترنت، ومعظَـمها من نماذج لاما من ميتا وجيما من جوجل ديب مايند.
المسؤولية والفرص والتحديات
قالت رايتشل آدامز إنها تعتبر المسؤولية مشتركة بين جميع أطراف المنظومة، بما في ذلك المختبرات المطوّرة، وليست على جهة واحدة فقط، لكنها تتحمل واجباً في توقّع الأضرار المحتملة وتوثيق المخاطر وتوفير أدوات وإرشادات للحد منها، خاصة في ظل تفاوت قدرات إنفاذ القانون عالمياً.
وأشارت شركة ميتا إلى أنها لا تعلّق على أسئلة المسؤولية لكنها ذكّرت بأن لديها أدوات حماية لاما ودليل الاستخدام المسؤول الخاص بالشركة.
ملاحظات شركات كبرى وتقييم المخاطر
كما صرّح رام شانكار سيفا كومار، قائد فريق الـريد تيم للذكاء الاصطناعي في مايكروسوفت، بأن النماذج المفتوحة المصدر لها دور مهم في مجالات متعددة، لكنها قد تُساء استخدامها إذا أُطلقت دون ضوابط أمان مناسبة. وأكدت مايكروسوفت أنها تجري تقييمات قبل الإطلاق لرصد المخاطر، وتتابع التهديدات الناشئة وأساليب سوء الاستخدام، مع التأكيد على ضرورة الالتزام المشترك من المطورين والمشغّلين والباحثين وفرق الأمن لتحقيق الابتكار المفتوح المسؤول.
