
موظفو OpenAI وGoogle يؤيدون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية
وقّع أكثر من ثلاثين موظفاً من OpenAI وGoogle DeepMind بياناً قانونياً يدعم موقف Anthropic، معتبرين أن تصنيف وزارة الدفاع الأمريكية للشركة كخطر في سلسلة التوريد قرار تعسفي وغير مبرر، وقد يترك آثاراً سلبية طويلة على صناعة الذكاء الاصطناعي في الولايات المتحدة.
بيان قانوني ينتقد القرار الحكومي
أشار البيان إلى أن اعتبار Anthropic مصدراً للخطر في سلسلة التوريد يمثل استخداماً غير مناسب للسلطة الحكومية دون مبرر واضح، وهو ما قد يحد من قدرات الشركات الأميركية على الابتكار والتنافس دولياً، خاصة مع تزايد المنافسة العالمية في المجال.
وقّع على البيان باحثون ورؤساء أقسام في قطاع الذكاء الاصطناعي، من بينهم Jeff Dean، كبير العلماء في Google DeepMind، إلى جانب مجموعة من العلماء والمهندسين، مؤكدين أن مثل هذه القرارات الحكومية يمكن أن تترتب عليها تداعيات واسعة على مستقبل الصناعة والتعاون مع الجهات الحكومية.
سبب الخلاف بين Anthropic والبنتاجون
تعود جذور الخلاف إلى تصنيف DoD لـ Anthropic كمخاطر في سلسلة التوريد، وهو تصنيف يُستخدم عادة حين ترتبط شركات بجهات خارجية قد تعتبرها الحكومة معادية، وذلك بعدما رفضت Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين الأميركيين أو في أنظمة قد تُطلق أسلحة بشكل مستقل. وفي المقابل، قالت الوزارة بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون قيد من شروط المتعاقدين.
رفع دعاوي قضائية ضد الحكومة الأمريكية
قبل نشر البيان، رفعت Anthropic دعويين ضد DoD وعدة وكالات اتحادية أخرى، بهدف الطعن في تصنيفها كمخاطر في سلسلة التوريد، معتبرة أن القرار يضر بسمعتها ويؤثر على قدرتها على العمل مع الجهات الحكومية.
بدائل متاحة للحكومة الأمريكية
في الوثيقة، أشار موظفو OpenAI وGoogle DeepMind إلى أنه إذا لم ترضَ وزارة الدفاع عن شروط التعاقد مع Anthropic، فكان بإمكانها إلغاء العقد واللجوء إلى شركة أخرى لتقديم خدمات الذكاء الاصطناعي، وهو خيار واضح للحصول على خدمات من مزودين آخرين رائدين.
عقد جديد بين البنتاجون وOpenAI
وبالواقع، وقّع DoD عقداً مع OpenAI بعد لحظات من تصنيف Anthropic كمخاطر، وهو ما أثار اعتراضات داخل OpenAI حيث عبر بعض الموظفين عن قلقهم من طريقة التعامل مع منافس في قطاع الذكاء الاصطناعي.
مخاوف من تأثير القرار على الصناعة
يحث البيان من أن التصنيف قد يضعف قدرة الولايات المتحدة على التنافس في الذكاء الاصطناعي، كما قد يحد من الابتكار العلمي والصناعي محلياً في ظل التنافس الدولي، كما قد يقيّد النقاش المفتوح داخل مجتمع الذكاء الاصطناعي حول مخاطر وفوائد التكنولوجيات المتقدمة.
الدفاع عن القيود الأخلاقية للذكاء الاصطناعي
أكّد النص أن القيود الأخلاقية التي وضعتها Anthropic بشأن استخدام تقنياتها تمثل خطوطاً حمراء مشروعة تستدعي وجود ضوابط صارمة، وأن غياب تشريعات واضحة يجعل القيود التقنية والتعاقدية إحدى وسائل الحماية من إساءة الاستخدام، كما دعا الموقعون إلى سحب التصنيف من Anthropic وتبنّي ضوابط أخلاقية واضحة كشرط للعمل الحكومي مع الشركات المتخصصة.