منوعات

بعد حظر ترامب.. كيف وظّفت واشنطن تقنيات ذكاء اصطناعي أنثروبيك في إيران؟

أفادت صحيفة وول ستريت جورنال بأن الجيش الأمريكي استخدم أداة كلود للذكاء الاصطناعي من شركة أنثروبيك في تقييمات استخبارية وتحديد أهداف ومحاكاة سيناريوهات المعارك، في إطار تقاطع التوترات بين الحكومات وشركات الذكاء الاصطناعي حول مدى وصول التقنية إلى العمليات العسكرية.

ووصفت أنثروبيك بأنها تشكل تهديداً للأمن القومي، خاصة مع الخلافات العلنية حول شروط استخدام أداة كلود وتوسيع نطاقها في التطبيقات العسكرية.

خلاف واسع حول استخدام الذكاء الاصطناعي

وأصدر الرئيس ترامب توجيهات لجميع الوكالات الفيدرالية بالتوقف الفوري عن استخدام أدوات الذكاء الاصطناعي من أنثروبيك، وصرّح بأن الشركة تشكل خطراً على الأمن القومي، وذلك في أعقاب خلاف حول وصول الجيش إلى التقنية.

وجاء هذا التحرك بعد أسابيع من الخلافات بين أنثروبيك ووزارة الدفاع الأمريكية، حيث ضغط المسؤولون لتوسيع نطاق استخدام برنامج كلود في التطبيقات العسكرية بينما قاومت الشركة بعض الشروط.

وعلى الرغم من التوجيه، أشارت تقارير إلى أن القوات الأمريكية نفذت عملية جوية ضد أهداف في إيران باستخدام أنظمة مدعومة من كلود، مما يعكس مدى اندماج الذكاء الاصطناعي في التخطيط والتنفيذ العسكري، دون الإفصاح عن تفاصيل مدى مشاركة كلود بشكل محدد.

وصف هذا الخلاف بأنه جزء من نقاش أوسع حول السماح باستخدام نماذج الذكاء الاصطناعي في مهام عسكرية وتحديد القيود الأخلاقية والأمنية المرتبطة بها، وهو ما دفع البنتاغون إلى منح الشركة مهلة للموافقة على شروطه وإلا ستواجه عواقب مثل استبعادها من عقود الدفاع.

وقالت أنثروبيك إنها تعتزم الطعن في تصنيف الحكومة لها كخطر على سلسلة التوريد، مبررة ذلك بضرورة وجود معايير أخلاقية، مع سعي البنتاغون إلى التخلي عن نظام كلود خلال الأشهر القادمة، وهو ما يجعل الحكومات تبحث عن بدائل من مزودي خدمات الذكاء الاصطناعي بما في ذلك OpenAI لتلبية الاحتياجات العسكرية.

يسلط هذا الوضع الضوء على التوترات المتزايدة حول كيفية استخدام الذكاء الاصطناعي في الأمن القومي والعمليات العسكرية، ويطرح تساؤلات حول الدور المستقبلي لتكنولوجيا الذكاء الاصطناعي في التخطيط الدفاعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى