منوعات

باحثون يحذرون من أن نماذج الذكاء الاصطناعي مفتوحة المصدر عرضة للاستغلال الإجرامي

مخاطر النماذج مفتوحة المصدر في الأمن السيبراني

أوضح الباحثون أن نماذج الذكاء الاصطناعي مفتوحة المصدر، بما في ذلك نماذج “لاما” من Meta و”جِما” من Google DeepMind، قد تكون عرضة للاستغلال من قبل القراصنة والمجرمين خارج القيود التي تفرضها منصات الذكاء الاصطناعي الكبرى، ما يزيد المخاطر الأمنية على المستوى العالمي.

يمكن للقراصنة بسهولة السيطرة على أجهزة الحاسوب التي تشغّل هذه النماذج خارج أنظمة الرقابة واستخدامها في تنفيذ أنشطة غير قانونية مثل حملات البريد المزعج، وإنشاء محتوى تصيدي، ونشر محتوى تضليلي، وتجاوز بروتوكولات الأمان، إضافة إلى سرقة بيانات شخصية، وعمليات احتيال، وفي بعض الحالات مواد تتعلق بالاستغلال الجنسي للأطفال.

أجريت دراسة مشتركة على مدى 293 يوماً من قبل شركتي الأمن السيبراني “سينتينل وان” و”سينسيس”، وتسلط الضوء على الحجم الكبير للاستخدامات غير المشروعة المحتملة لآلاف النماذج مفتوحة المصدر المنتشرة على الإنترنت.

شملت الاستخدامات المحتملة أنشطة قرصنة وخطاب كراهية ومضايقات ومحتوى عنيفاً أو دموياً، إضافة إلى سرقة بيانات شخصية وعمليات احتيال ونصب، بل وفي بعض الحالات مواد تتعلق باستغلال جنسي للأطفال.

أشار التقرير إلى وجود آلاف النماذج مفتوحة المصدر، ومعظمها مستضافة على خوادم مرتبطة بالإنترنت تعود إلى نماذج “لاما” من Meta و”جِما” من Google DeepMind وغيرها، كما رُصدت مئات الحالات التي أُزيلت فيها ضوابط الأمان عمداً من هذه النماذج.

قال خوان أندريس جيريرو سادي، المدير التنفيذي لأبحاث الاستخبارات والأمن في سينتينل وان، إن مناقشات قطاع الذكاء الاصطناعي حول الأمان تتجاهل فائض القدرة التشغيلية الذي يمكن استغلاله في أنشطة متنوعة، بعضها مشروع وبعضها إجرامي، ووصف الوضع بأنه جبل جليد لا يُدار حجمه بشكل كافي في الصناعة ومجتمع المصادر المفتوحة.

حلّلت الدراسة عمليات نشر عامة لنماذج لغوية مفتوحة المصدر عبر أداة “أولاما” التي تتيح للأفراد والمؤسسات تشغيل نسخ من نماذج الذكاء الاصطناعي، وتمكّن الباحثون من الاطلاع على “أوامر النظام” التي تحدد سلوك النموذج في نحو ربع النماذج التي دُرست، وخلصوا إلى أن 7.5% منها قد تتيح أنشطة ضارة.

كما أظهرت النتائج أن نحو 30% من الخوادم التي تشغّل هذه النماذج تقع في الصين، بينما يوجد نحو 20% منها في الولايات المتحدة.

قالت رايتشل آدامز، الرئيسة التنفيذية ومؤسسة المركز العالمي لحوكمة الذكاء الاصطناعي، إن المسؤولية بعد إطلاق النماذج المفتوحة تصبح مشتركة بين جميع أطراف المنظومة، بما في ذلك المختبرات المطوّرة.

وأضافت أن المختبرات ليست مسؤولة عن كل إساءة استخدام لاحقة، لكنها تتحمل واجباً في توقّع الأضرار المحتملة وتوثيق المخاطر وتوفير أدوات وإرشادات للحد من ذلك، خاصة في ظل تفاوت قدرات إنفاذ القانون عالمياً.

وفي تعليق مقتضب، لم ترد “ميتا” على أسئلة تتعلق بمسؤولية المطورين عن إساءة الاستخدام لاحقاً للنماذج المفتوحة، لكنها أشارت إلى أدوات حماية لاما ودليل “الاستخدام المسؤول” الخاص بالشركة.

قال رام شانكار سيفا كومار، قائد فريق “ريد تيم” للذكاء الاصطناعي في مايكروسوفت، إن الشركة ترى أن النماذج مفتوحة المصدر تلعب دوراً مهماً في عدة مجالات، لكنها تدرك أن هذه النماذج قد تُساء استخدامها من قبل جهات معادية إذا أُطلقت دون ضوابط أمان مناسبة.

وأوضح أن مايكروسوفت تجري تقييمات قبل الإطلاق لرصد المخاطر، خاصة في السيناريوهات المتصلة بالإنترنت أو التشغيل الذاتي، وتراقب التهديدات الناشئة وأنماط سوء الاستخدام، مؤكداً أن الابتكار المفتوح المسؤول يتطلب التزاماً مشتركاً من المطورين والمشغّلين والباحثين وفرق الأمن.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى