Microsoft lanzará una vista previa de sus chips Azure Cobalt 100 personalizados en su conferencia de desarrolladores Build la próxima semana.
En comentarios publicadospor TechCrunch, Scott Guthrie, vicepresidente ejecutivo del grupo de nube e inteligencia artificial de Microsoft, dijo a los analistas que los chips, que se anunciaron por primera vez en noviembre de 2023, ofrecerán un rendimiento un 40 por ciento mejor que otros chips Arm en el mercado.
Guthrie dijo que Snowflake y Adobe se encontraban entre los clientes que ya estaban usando los nuevos chips.
La CPU Microsoft Azure Cobalt está diseñada para cargas de trabajo generales, centrándose en el rendimiento por vatio. Cuando se anunciaron por primera vez los chips, Microsoft dijo que se estaban utilizando para productos internos de Microsoft, como servidores Azure SQL y Microsoft Teams.
El Cobalt 100 tiene 128 núcleos Neoverse N2 en Armv9 y 12 canales de DDR5, y está basado en la plataforma CSS (Subsistema de Computación) Neoverse Genesis de Arm.
Microsoft también ha dicho a los analistas que planea poner los aceleradores MI300X de AMD a disposición de los clientes a partir de la próxima semana. Las GPU se venderán a través del servicio de computación en la nube Azure de la empresa.
Anunciado por primera vez en diciembre de 2023, el acelerador MI300X también se basa en la arquitectura CDNA 3 y tiene 1,5 veces más capacidad de memoria (192 GB) y 1,7 veces más ancho de banda de memoria teórico máximo (5,3 TBps) que la versión anterior M1250X, lo que ofrece casi un 40 por ciento más de computación.
AMD también afirma que sus nuevas GPU MI300X superan la velocidad de los chips H100 de Nvidia, ofreciendo 1,3 petaflops de rendimiento FP16 y 2,6 petaflops de FP8.
Según TechCrunch, Guthrie ha descrito el MI300X como "la GPU más rentable que existe actualmente para Azure OpenAI".
Además de poner a disposición el MI300X, Microsoft también ha desarrollado internamente su propio acelerador de IA llamado Azure Maia 100. Construido sobre la arquitectura Arm, el chip se ha optimizado para tareas de inteligencia artificial e IA generativa y se utiliza en los centros de datos en la nube de la empresa.