
موظفو OpenAI وGoogle يدعمون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية
وقع أكثر من ثلاثين موظفًا من شركتي OpenAI وGoogle DeepMind بيانًا قانونيًا يدعم موقف Anthropic في الدعوى القضائية المرفوعة ضد وزارة الدفاع الأمريكية، معتبرين أن تصنيف Anthropic كمخاطر في سلسلة التوريد تصنيف تعسفي وغير مبرر، وقد يترك آثارًا سلبية على صناعة الذكاء الاصطناعي في الولايات المتحدة.
وأشار البيان إلى توقيع العالم البارز Jeff Dean، كبير العلماء في Google DeepMind، إلى جانب عدد من الباحثين والمهندسين العاملين في قطاع الذكاء الاصطناعي، مؤكدين أن مثل هذه القرارات الحكومية قد تكون لها تداعيات واسعة على مستقبل الصناعة، خاصة مع المنافسة الدولية المتصاعدة.
تعود جذور الخلاف إلى قرار وزارة الدفاع تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو تصنيف يُستخدم عادة في حالات شركات مرتبطة بدول معادية، وجاء بعد أن رفضت Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين أو في أنظمة يمكنها إطلاق الأسلحة بشكل مستقل، في حين جادلت الوزارة بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون فرض قيود من شركات متعاقدة.
قدمت Anthropic دعويين قضائيتين ضد الحكومة الأمريكية وعدة وكالات اتحادية للطعن في التصنيف، معتبرة أن القرار يضر بسمعتها ويؤثر على قدرتها في العمل مع الجهات الحكومية.
وفي الوثيقة القانونية، أشار الموظفون إلى أن للحكومة خيارًا واضحًا بإلغاء العقد واللجوء إلى شركات أخرى رائدة في المجال لتوفير خدمات الذكاء الاصطناعي بدلاً من اعتبار Anthropic مصدر مخاطر.
ومن اللافت أن DoD وقع عقدًا مع OpenAI بعد ساعات من تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو ما أثار اعتراضات داخلية بين بعض موظفي OpenAI الذين عبروا عن قلقهم من الطريقة التي عُوملت بها الشركة المنافسة في قطاع الذكاء الاصطناعي.
يحذر البيان القانوني من أن السماح بمثل هذه الإجراءات قد يضعف القدرة التنافسية للولايات المتحدة في الذكاء الاصطناعي، كما قد ينعكس سلبًا على الابتكار العلمي والصناعي داخل البلاد، خاصة في ظل المنافسة الدولية المتزايدة، كما يشير إلى أن هذه الخطوات قد تقيد الحوار المفتوح داخل مجتمع الذكاء الاصطناعي حول المخاطر والفوائد المرتبطة بهذه التقنيات.
أ contundت الوثيقة كذلك أن خطوط الحدود الأخلاقية التي وضعتها Anthropic بشأن استخدام تقنياتها تشكل مخاوف مشروعة تستدعي وجود ضوابط صارمة، وأوضح الموقعون أنه في ظل غياب تشريعات واضحة تنظِّم استخدام الذكاء الاصطناعي، فإن القيود التقنية والتعاقدية تمثل إحدى أهم وسائل الحماية من إساءة استخدام التكنولوجيا.
وكان العديد من الموقعين على البيان القانوني قد شاركوا في رسائل مفتوحة خلال الأسابيع الأخيرة تدعو وزارة الدفاع الأمريكية إلى سحب تصنيف “خطر سلسلة التوريد” عن Anthropic، كما طالبوا قيادات شركاتهم—ومنها OpenAI وGoogle—بتبنّي موقف واضح داعم للشركة ورفض استخدام أنظمة الذكاء الاصطناعي بشكل أحادي من قبل الحكومة دون الالتزام بالضوابط الأخلاقية المتفق عليها.