منوعات

موظفو OpenAI وGoogle يدعمون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية

أعلنت OpenAI عن إطلاق نموذج الذكاء الاصطناعي GPT-5-4 بقدرات جديدة وتوسيع إمكاناته في الصناعات المتعددة.

دعم Google DeepMind شركة Anthropic في الدعوى القضائية المرفوعة ضد وزارة الدفاع الأمريكية بعد تصنيف الوزارة Anthropic كخطر على سلسلة التوريد، وهو قرار يثير جدلاً واسعاً.

ووفقًا لوثائق المحكمة المقدمة، وقع أكثر من ثلاثين موظفاً من الشركتين على بيان قانوني يؤيد Anthropic، معتبرين أن التصنيف الأميركي تعسفي وغير مبرر، وربما يترك آثاراً سلبية كبيرة على صناعة الذكاء الاصطناعي في الولايات المتحدة.

ورد في البيان القانوني أن تصنيف Anthropic كخطر على سلسلة التوريد يمثل استخدامًا غير مبرر للسلطة الحكومية، ومن بين الموقعين Jeff Dean، كبير العلماء في Google DeepMind، إضافة إلى عدد من الباحثين والمهندسين، مؤكدين أن هذه القرارات قد تؤثر سلباً على مستقبل الصناعة وسط منافسة عالمية متزايدة.

تعود جذور الخلاف إلى قرار وزارة الدفاع بتصنيف Anthropic كخطر في سلسلة التوريد، وهو تصنيف يُستخدم عادةً في حالات تتعلق بشركات مرتبطة بدول معادية، وذلك عقب رفض Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين أو في أنظمة يمكنها إطلاق أسلحة بشكل مستقل، بينما جادلت الوزارة بأن لها حق استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون قيود من متعاقدين.

قبل ساعات من بيان الدعم، رفعت Anthropic دعويين قضائيتين ضد وزارة الدفاع وعدة وكالات اتحادية أخرى للطعن في قرار التصنيف كخطر لسلسلة التوريد، معتبرة أن القرار يضر بسمعتها ويؤثر على قدرتها على العمل مع الجهات الحكومية.

وفي الوثيقة القانونية، أشار موظفو OpenAI وGoogle DeepMind إلى أنه إذا لم ترض وزارة الدفاع عن شروط العقد مع Anthropic فكان بإمكانها إلغاء العقد واللجوء إلى شركات أخرى لتوفير خدمات الذكاء الاصطناعي، بدل الاعتماد على Anthropic كمصدر للخطر.

ومن اللافت أن وزارة الدفاع وقَّعت في وقت لاحق اتفاقاً مع OpenAI بعد تصنيف Anthropic كمخاطر لسلسلة التوريد، وهو ما أثار اعتراضات داخلية بين بعض موظفي OpenAI حول الطريقة التي عوملت بها الشركة المنافسة في قطاع الذكاء الاصطناعي.

يحذر البيان القانوني من أن السماح بمثل هذه الإجراءات قد يضعف القدرة التنافسية للولايات المتحدة في مجال الذكاء الاصطناعي، كما قد يقيّد النقاش المفتوح داخل مجتمع البحث العلمي والتقني في ظل زيادة التنافس الدولي.

وأكد أن القيود الأخلاقية للذكاء الاصطناعي تشكل مخاوف مشروعة تستدعي وجود ضوابط وتشريعات واضحة، مع الإشارة إلى أن القيود التقنية والتعاقدية التي تفرضها الشركات المطوّرة تشكل إحدى أهم وسائل الحماية من إساءة الاستخدام في غياب تشريعات كافية.

كان الموقعون على البيان قد شاركوا أيضاً في رسائل مفتوحة تطالب وزارة الدفاع بسحب تصنيف “خطر سلسلة التوريد” عن Anthropic، ودعوا قيادات شركاتهم لدعم Anthropic ورفض استخدام أنظمة الذكاء الاصطناعي الحكومية دون الالتزام بالضوابط الأخلاقية المتفق عليها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى