
تكشف شركة Anthropic عن إضافات Claude وتفتح باباً للنقاش حول حدود الاستخدام الأخلاقي لتقنيات الذكاء الاصطناعي في السياق العسكري والمراقبة الجماعية.
خلفية الصراع
وفقاً للتقارير، يسعى وزير الدفاع Pete Hegseth إلى تعديل العقود الحالية لشركات الذكاء الاصطناعي مع وزارة الدفاع، بما يمنح الجيش صلاحيات واسعة للوصول إلى تقنياتهم، بينما وافقت شركتا OpenAI و xAI على الشروط الجديدة، ورفضت Anthropic التنازل عن خطوطها الحمراء الأخلاقية.
موقف أنثروبيك
أكد الرئيس التنفيذي للشركة، Dario Amodei، أن Anthropic لن تسمح باستخدام تقنياتها في المراقبة الجماعية للأمريكيين أو الأسلحة ذاتية التشغيل، مشيرًا إلى أن التهديدات لا تُغيّر موقفنا ويعتبر هذا التزامًا بالمعايير الأخلاقية للشركة حتى في مواجهة خسائر محتملة بعقود مالية مع الحكومة.
الإجراءات الحكومية
في خطوة تصعيدية، صنّف البنتاجون شركة Anthropic على أنها تشكل خطراً على سلسلة التوريد، وهو تصنيف يُستخدم عادةً لتحذير القطاع من تهديدات قد تمس الأمن القومي، وقد يؤثر هذا التصنيف على عقود الشركة مع الحكومة الفيدرالية ويهدد استمراريتها في تقديم خدماتها للبنتاجون.
ردود فعل الصناعة
تركّزت ردود الفعل حول المخاطر الأخلاقية المحتملة، إذ أعرب موظفون في شركات تقنية تعمل مع البنتاجون عن قلقهم من استخدام الذكاء الاصطناعي لأغراض المراقبة الجماعية والأسلحة الفتاكة، معتبرين أن الهدف الأصلي من التقنية يجب أن يكون تحسين حياة الناس، لا التحكم أو القتل.
يُظهر الصراع نموذجاً حقيقياً للصراع بين الأخلاقيات والتمويل العسكري في صناعة الذكاء الاصطناعي، مع التزام Anthropic بالحدود الأخلاقية كمعيار محتمل لشركات الذكاء الاصطناعي في التعامل مع العقود العسكرية والتهديدات الحكومية.