
باحثون يحذرون من أن نماذج الذكاء الاصطناعى مفتوحة المصدر معرضة للاستغلال الإجرامى
تحذير من استغلال نماذج الذكاء الاصطناعي المفتوحة المصدر
بدأت نتائج دراسة مشتركة تُظهر أن نماذج لغوية مفتوحة المصدر قد تكون عرضة للاستغلال من قبل قراصنة ومجرمين، وهو ما يرفع المخاطر الأمنية على مستوى العالم.
أوضح الباحثون أن القراصنة يمكنهم بسهولة تشغيل الحواسيب التي تدير هذه النماذج خارج القيود والضوابط المفروضة من منصات الذكاء الاصطناعي الكبرى، واستخدامها في أنشطة غير قانونية مثل حملات البريد المزعج، وإنشاء محتوى تصيدي، ونشر حملات تضليل، مع تجاوز بروتوكولات الأمان المعتمدة.
حللت الدراسة نشر نماذج مفتوحة المصدر تعمل عبر أداة أولاما، التي تتيح للمؤسسات تشغيل نسخها من نماذج الذكاء الاصطناعي، وكشفت أن نحو ربع النماذج التي جرى دراستها كانت تحمل “أوامر نظام” تحدد سلوكها، وأن 7.5% منها قد تتيح أنشطة ضارة.
أشارت النتائج إلى توزيع جغرافي للنشر، حيث تقع نحو 30% من الخوادم التي تشغّل هذه النماذج في الصين ونحو 20% في الولايات المتحدة، في حين تتفاوت قدرات الإنفاذ وتطبيق القوانين عالمياً.
قالت رايتشل آدامز، الرئيسة التنفيذية ومؤسسة المركز العالمي لحوكمة الذكاء الاصطناعي، إن المسؤولية لا تنتهي عند الإطلاق بل تصبح مشتركة بين المطورين والمشغلين ومجتمعات التنظيم، مع ضرورة توثيق المخاطر وتوفير أدوات وإرشادات للحد من الأضرار خاصة في سياق تفاوت قدرات إنفاذ القانون عالمياً.
وفي تعليق مقتضب، امتنعت «ميتا» عن الرد على أسئلة تتعلق بمسؤولية المطورين عن إساءة الاستخدام لاحقاً للنماذج المفتوحة، لكنها أشارت إلى أدوات حماية خاصة بالنماذج وإلى دليل الاستخدام المسؤول.
ومن جانب مايكروسوفت، قال رام شانكار سيفا كومار، قائد فريق الريد تيم للذكاء الاصطناعي، إن النماذج المفتوحة المصدر تلعب دوراً رئيسياً في مجالات عدة، لكنها قد تُساء استخدامها إذا أُطلقت بلا ضوابط أمان مناسبة. وتابع أن الشركة تجري تقييمات مخاطر قبل الإطلاق وتتابع التهديدات الناشئة وتؤكد أن الابتكار المفتوح المسؤول يتطلب مشاركة جميع الأطراف المعنية من المطورين والمشغلين والباحثين وخبراء الأمن.