منوعات

تفاصيل صراع الذكاء الاصطناعي مع البنتاجون: روبوتات قاتلة وخطوط حمراء

أثارت الخلافات بين Anthropic والجهات العسكرية جدلاً واسعاً حول الحدود الأخلاقية لاستخدام تقنيات الذكاء الاصطناعي في القطاع الحكومي.

خلفية الصراع

وفقاً للتقارير، يسعى وزير الدفاع الأمريكي إلى تعديل العقود المبرمة مع شركات الذكاء الاصطناعي للسماح للجيش بالوصول الواسع إلى تقنياتهم، في حين وافقت كل من OpenAI وxAI على الشروط الجديدة، بينما رفضت Anthropic التنازل عن خطوطها الأخلاقية الحمراء.

موقف أنثروبيك

أكدت Anthropic أن تقنياتها لن تُستخدم في المراقبة الجماعية لمواطني الولايات المتحدة ولا في الأسلحة ذاتية التشغيل، وأن التهديدات لا تغير موقفها وتستمر في التزامها بمعاييرها الأخلاقية حتى في مواجهة عقود مالية كبيرة مع الحكومة.

الإجراءات الحكومية

في خطوة تصعيدية، صُنِّفت Anthropic كخطر على سلسلة التوريد من قبل وزارة الدفاع، وهو تصنيف يُستخدم عادةً لتحذير القطاع من تهديدات قد تمس الأمن القومي، ما قد يؤثر في عقود الشركة مع الحكومة الفيدرالية ويهدد استمراريتها في تقديم الخدمات للبنتاجون.

ردود فعل الصناعة

تركّزت ردود الفعل على المخاطر الأخلاقية المحتملة، إذ أعرب موظفو شركات تقنية تعمل مع البنتاغون عن قلقهم من استخدام الذكاء الاصطناعي لأغراض المراقبة الجماعية والأسلحة الفتاكة، مؤكدين أن هدف التقنية يجب أن يكون تحسين حياة الناس لا التحكم أو القتل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى