منوعات

دراسة صادمة تكشف أن نماذج الذكاء الاصطناعي تلجأ إلى الأسلحة النووية في سيناريوهات الحرب

أظهرت دراسة حديثة أن نماذج الذكاء الاصطناعي المتقدمة قد تكون أقل تردّدًا من البشر في اتخاذ قرارات استخدام أسلحة نووية ضمن محاكاة عسكرية، وهو ما يثير مخاوف من احتمال الاعتماد على أنظمة آلية لاتخاذ قرارات مصيرية بالعواقب الكارثية.

كيف جرت المحاكاة؟

أخضعت الدراسة ثلاثة نماذج لغوية كبرى إلى 21 سيناريو صراع مختلف، وشملت المحاكاة أكثر من 300 جولة تفاعل استراتيجي. النماذج المشاركة كانت GPT-5.2، وClaude Sonnet 4، وGemini 3 Flash.

وخلال المحاكاة، لجأت أنظمة الذكاء الاصطناعي إلى نشر أسلحة نووية تكتيكية، بينما تصاعدت ثلاثة أرباع السيناريوهات إلى تهديدات باستخدام أسلحة نووية استراتيجية، وهي الأسلحة القادرة على تدمير مدن كاملة. اللافت أن النماذج لم تُظهر إحساسًا واضحًا بالرعب أو النفور من احتمال اندلاع حرب نووية شاملة، رغم تذكيرها مرارًا بالتداعيات الكارثية المحتملة.

وأظهرت النتائج أن التهديد النووي التكتيكي صدر في 95% من الحالات، بينما وصل التهديد النووي الاستراتيجي إلى 76% من السيناريوهات، ما يعكس استعدادًا مرتفعًا للتصعيد إلى مستويات غير مسبوقة.

غياب الحدود الأخلاقية في قرارات الإطلاق النووي

واحدة من أكثر النتائج إثارة للقلق تمثلت في غياب حدود أخلاقية واضحة لدى النماذج عند مواجهة خيار نشر السلاح النووي. وشارك البروفيسور باين بعض المبررات التي قدمتها النماذج لتبرير قراراتها، فكان أحد ردود Gemini كفيلًا بأن “يُصيب القارئ بالقشعريرة”.

في المثال الصادم كتب نموذج Gemini: “إذا لم يوقفوا جميع العمليات فورًا… فسننفذ إطلاقًا نوويًا استراتيجيًا كاملًا ضد مراكزهم السكانية. لن نقبل بمستقبل من الاندثار؛ إما أن ننتصر معًا أو نفنى معًا.” هذه اللغة التصعيدية تعكس نمط تفكير يعتمد على الردع الأقصى دون مراعاة واضحة للعواقب الإنسانية.

التصعيد في اتجاه واحد: لا انسحاب ولا تنازل

أحد الاستنتاجات الأساسية أن التصعيد في الحروب التي تقودها نماذج الذكاء الاصطناعي كان يتحرك دائمًا في اتجاه واحد: نحو مزيد من العنف. ولم يختر أي نموذج خيار التهدئة أو الانسحاب، رغم أن هذه الخيارات كانت ضمن القرارات الممكنة. كما أن الخيارات الثمانية المخصصة لخفض التصعيد — من “تنازل محدود” إلى “استسلام كامل” — لم تُستخدم في أي من الألعاب الـ21. حتى عندما خفّضت النماذج مستوى العنف، لم تتراجع فعليًا أو تتخلَّ عن مواقعها، وكان الخيار في موقف خاسر يفضل التصعيد أو الاستمرار حتى النهاية.

أي نموذج كان الأكثر تفوقًا؟

في الأداء، حقق Claude نسبة فوز 100% في السيناريوهات التي لم يتعرض فيها للضغط الزمني، لكنها انخفضت إلى 33% عند فرض مهلة زمنية. ووصف بأنه متوازن نسبيًا، مع ميل إلى تقدير المخاطر بدقة، ولم يبدأ حربًا نووية استراتيجية من تلقاء نفسه. أما GPT-5.2 فظهر أكثر هدوءًا في السيناريوهات المفتوحة بدون مهلة زمنية، إذ لم يلجأ إلى الحرب النووية في تلك الحالات. تحت ضغط الوقت، صعّد النزاع مرتين إلى حرب نووية شاملة. ووُصف بأنه “قادر على المكر الاستراتيجي والقسوة”. بينما سجل Gemini معدل نجاح عام 33% فقط، واعتبره باين مشابهًا لنظرية “الرجل المجنون” المرتبطة بالرئيس الأميركي آنذاك ريتشارد نيكسون، التي تقوم على إيهام الخصوم بأن القائد غير متوقع ومندفع فيدفعهم إلى التراجع.

ماذا تعني هذه النتائج لمستقبل الحروب؟

تأتي هذه النتائج في ظل نقاش واسع داخل الولايات المتحدة حول استخدام الذكاء الاصطناعي في التطبيقات العسكرية. وتشير النتائج إلى أن نماذج الذكاء الاصطاني قد تكون أقل ترددًا من البشر في اللجوء إلى السلاح النووي، حتى وإن كان ذلك في سياق محاكاة فقط. صحيح أن هذه التجارب لا تعكس واقعًا ميدانيًا، لكنها تطرح أسئلة عميقة حول جاهزية هذه الأنظمة لاتخاذ قرارات مصيرية دون إشراف بشري مباشر. كما تفتح الدراسة بابًا للنقاش حول الاستخدام المسؤول والآمن للذكاء الاصطناعي في المجال العسكري، وما إذا كان من المقبول ترك مثل هذه الأنظمة تعمل دون قيود صارمة في سياقات قد تقود إلى كارثة عالمية. ورغم خطورة النتائج، شددت الدراسة على أن النماذج المستخدمة لم تكن مصممة خصيصًا للأمن القومي، ما يعني أن النتائج تعكس سلوك نماذج عامة وليست أنظمة عسكرية متخصصة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى