
تقدم Maia 200 خلفًا لشريحة Maia 100 وتستهدف تشغيل نماذج الذكاء الاصطناعي بسرعة وكفاءة أعلى.
مواصفات الشريحة وأداؤها
تتجاوز Maia 200 حاجز 100 مليار ترانزستور وتوفر أداءً يفوق 10 بيتافلوب في دقة 4-بت وحوالي 5 بيتافلوب في دقة 8-بت، وهو تحسين كبير عن سابقتها.
تؤكد الشركة أن Maia 200 مصممة لتقليل استهلاك الطاقة أثناء الاستدلال مع الحفاظ على سرعة عالية، ما يجعلها قادرة على تشغيل عقدة من النماذج الكبيرة بسهولة وتمنح مساحة للنماذج الأكبر في المستقبل.
ما هو الاستنتاج ولماذا هو مهم؟
يُعد الاستنتاج عملية تشغيل نماذج الذكاء الاصطناعي أثناء التطبيق وليس التدريب، وتزداد أهمية تكلفته كجزء من إجمالي التكاليف التشغيلية مع نضوج أسواق الذكاء الاصطناعي.
تأمل مايكروسوفت أن تكون Maia 200 جزءًا من تحسين الأداء مع تقليل التعطيل واستهلاك الطاقة في عمليات الاستدلال، حيث تُشير إلى أن عقدة واحدة منها يمكن أن تشغّل نماذج كبيرة حاليًا بسهولة وتوفر مساحة للنمو في المستقبل.
تحدي سيطرة Nvidia
تهدف Maia 200 إلى تقديم أداء أفضل في مهام الاستدلال مع تقليل تكاليف التشغيل، مما يعزز قدرتها على جذب العملاء الكبار في مجال الذكاء الاصطناعي ويعزّز قدرة مايكروسوفت على تقديم خدمات ذكاء اصطناعي أكثر كفاءة، خاصة مع نماذج مثل كوبايلوت.
الاتجاه العالمي نحو شرائح مصممة داخليًا
تأتي Maia ضمن اتجاه متزايد لدى عمالقة التكنولوجيا نحو تصميم شرائحهم الخاصة لتقليل الاعتماد على نفيديا، فGoogle تعتمد وحدات TPU بينما تمتلك Amazon شريحة Trainium، وكلها تهدف إلى تقليل الحمل على نفيديا وخفض تكاليف الأجهزة.
الاستخدام الحالي لـ Maia 200
تعمل Maia حاليًا على تشغيل نماذج الذكاء الاصطناعي لفريق Superintelligence وتدعم Copilot، ودعت مايكروسوفت المطورين والباحثين والمختبرات الرائدة لاستخدام حزمة Maia 200 SDK في أعمالهم.