
Anthropic تتفوق على OpenAI وتسيطر على نحو 70% من سوق المؤسسات الجديدة
تقدم Anthropic في سوق الذكاء الاصطناعي المؤسسي
تشير البيانات الحديثة إلى أن Anthropic حققت تقدمًا ملحوظًا وفوزًا في سوق الذكاء الاصطناعي المخصص للشركات، حيث تكسب نحو 70% من المواجهات المباشرة ضد منافسها الرئيسي OpenAI.
تعزز الشركة موقعها بفضل سياسة صارمة في الأمان والحوكمة الأخلاقية، وهذا ما أصبح ميزة تنافسية جاذبة للشركات الكبرى التي تبحث عن حلول آمنة وموثوقة لدمج الذكاء الاصطناعي في عملياتها الحساسة، مما أدى إلى ارتفاع في معدلات تبني تطبيقاتها.
كانت في الماضي مُعرّضة لصِفَة مخاطرٍ لسلسلة التوريد لدى بعض الجهات الحكومية بسبب رفضها التنازل عن معايير السلامة، وتحولت هذه السياسة إلى ميزة تنافسية جاذبة للشركات الكبرى الباحثة عن حلول آمنة وموثوقة.
أورد تقرير لشبكة CNN أن تطبيق Claude التابع لشركة Anthropic شهد قفزة كبيرة في التنزيلات وتصدر قوائم متجر تطبيقات Apple هذا الأسبوع، مدعومًا بقبول عام واسع لموقف الشركة الرافض لتطوير تقنيات ذكاء اصطناعي عسكرية أو روبوتات قاتلة.
يؤكد هذا الاتجاه أن الشركات تفضل النماذج التي توفر ضمانات أقوى ضد الهلوسة وتسريب البيانات، وهو المجال الذي ركزت عليه Anthropic منذ تأسيسها.
يعكس هذا التحول تغيّر أولويات كبار المشترين في اختيار مزودي الذكاء الاصطناعي، حيث صار الأمان والالتزام بالمعايير الأخلاقية أولوية تفوق السرعة أو القدرات غير الخاضعة للضبط، وهو ما يفرض تحديًا لبقية اللاعبين لتعديل استراتيجياتهم الأمنية والشفافية.
الذكاء الاصطناعي المؤسسي: تعريفه
يعرف الذكاء الاصطناعي المؤسسي بأنه أنظمة برمجية متقدمة مصممة خصيصًا لتلبية احتياجات الشركات، تتميز بقدرتها على معالجة البيانات الداخلية بأمان وموثوقية عالية لضمان سرية المعلومات.
تشمل هذه الأنظمة ضمانات أمنية وأخلاقية، وهي مجموعة من القيود والبروتوكولات التي تُدمج في نماذج الذكاء الاصطناعي لمنع توليد محتوى ضار أو اتخاذ قرارات تقنية غير مسؤولة.