
نشرت تقارير مطلعة أن أنثروبيك استخدمت نموذج كلود عبر شراكة مع بالانتير تكنولوجيز في عملية عسكرية أمريكية لاستهداف الرئيس الفنزويلي السابق نيكولاس مادورو وزوجته في كاراكاس الشهر الماضي.
لم تُكشف تفاصيل العملية والدور الدقيق لنظام الذكاء الاصطناعي، ولكنه يدل على وجود نموذج ذكاء اصطناعي تجاري جزءاً من مهمة عسكرية حقيقية، وهو أمر لا يمكن تجاهله.
قال متحدث باسم أنثروبيك: “لا يمكننا التعليق على ما إذا كان كلود، أو أي نموذج ذكاء اصطناعي آخر، قد استُخدم في أي عملية محددة، سواء كانت سرية أم لا”، وأضاف أن استخدام أي برنامج كلود يخضع لسياسات الاستخدام ويُدار بالتعاون مع الشركاء لضمان الامتثال.
وقد نُشر برنامج كلود، بحسب التقارير، من خلال شراكة أنثروبيك مع بالانتير تكنولوجيز، التي تُستخدم منصاتها على نطاق واسع من قبل وزارة الدفاع ووكالات إنفاذ القانون الفيدرالية، ومن خلال هذه القناة أصبح كلود جزءاً من نظام مدمج ضمن إطار الأمن القومي.
توتر بين ضمانات الذكاء الاصطناعي والاستخدام العسكري
ما يجعل التطور لافتاً للنظر هو أن أنثروبيك تضع قيود عادة على استخدام كلود لتسهيل العنف أو تطوير الأسلحة أو عمليات التجسس، ومع ذلك أشارت التقارير إلى قصف مواقع متعددة في كاراكاس، ما يثير جدالاً حول التوافق بين السياسات المكتوبة والواقع الميداني.
كانت أنثروبيك أول مطوّر لنماذج الذكاء الاصطناعي يُستخدم نظامه في عمليات سرية من قبل وزارة الدفاع الأميركية، وربما تُستخدم أدوات أخرى في مهام غير سرية ضمن بيئات عسكرية، حيث يمكن لهذه الأنظمة المساعدة في تحليل كميات ضخمة من الوثائق، وإعداد التقارير، أو دعم أنظمة الطائرات المسيرة ذاتية التشغيل.
بالنسبة لشركات الذكاء الاصطناعي المنافسة في قطاع مزدحم وقيمته عالية، يعتبر الاعتماد من قبل الجيش نقطة ثقة وتقدير تقني، ولكنه في الوقت نفسه يعرّض سمعتها للخطر إذا ظهر تضارب مع ضوابط الاستخدام أو السياسات الأخلاقية.
أشار داريو أمودي، الرئيس التنفيذي لأنثروبيك، علناً إلى المخاطر التي تمثلها أنظمة الذكاء الاصطناعي المتقدمة، ودعا إلى ضبط أقوى وتنظيمات أكثر صرامة، كما عبّر عن قلقه بشأن استخدام التقنية في عمليات القتل أو المراقبة الداخلية، وهي قضايا تقول تقارير إنها أصبحت محاور خلاف في مفاوضات العقد مع البنتاغون.
ينال العقد الممنوح لأنثروبيك الصيف الماضي والذي بلغت قيمته نحو 200 مليون دولار التدقيق حالياً، وتطرقت تقارير سابقة إلى أن مخاوف داخل الشركة بشأن كيفية استخدام الجيش لتقنية كلود دفعت المسؤولين إلى التفكير في إلغاء الاتفاقية.
ويظهر الخلاف عند مدى أوسع من مجرد عملية بعينها، حيث يعبر عن انقسام أعمق حول كيفية إدارة الذكاء الاصطناعي: فبينما يدعو مسؤولو إدارة ترامب إلى نهج تنظيمى أقل صرامة، تسعى أنثروبيك إلى فرض ضمانات وتدابير رقابية أكثر، بما في ذلك على صادرات رقائق الذكاء الاصطناعي.
وفي فعالية عقدت في يناير للإعلان عن تعاون البنتاغون مع شركة xAI، قال وزير الدفاع بيت هيغسيث إن الوكالة لن “تستخدم نماذج ذكاء اصطناعي لا تمكّن من خوض الحروب”، وهو تعبير يلمح إلى مناقشات المسؤولين مع أنثروبيك حول حدود الاستخدام والقدرات التي يجب الاعتماد عليها في عمليات عسكرية مستقبلية.