La batalla por el corazón del centro de datos se está intensificando.
En algún momento, la historia fue simple, de un mercado de servidores dominado por las CPU x86 de Intel, constantemente renovadas de acuerdo con la Ley de Moore.
Pero, como suele suceder, un monopolio engendró complacencia, lo que frenó la innovación y el progreso tecnológico. Eso cambió en 2017, cuando AMD entró de forma agresiva al mercado de servidores, irrumpiendo en el mercado con la línea de procesadores Epyc.
Ahora la compañía enfrenta sus propias amenazas: en el lado de la CPU por parte de un Intel revitalizado y una gran cantidad de competidores de Arm. En el lado de la GPU, donde durante mucho tiempo ha desempeñado un papel secundario frente a Nvidia, ha visto cómo su rival explotaba en popularidad, vendiendo A100 y H100 por toneladas.
En la cumbre del centro de datos de la compañía este verano, nos reunimos con el CTO de AMD, Mark Papermaster, para discutir su guerra en múltiples frentes.
Allí, el gran anuncio del diseñador de chips fue la línea de procesadores Epyc 97X4, con nombre en código Bergamo. Utilizando la nueva arquitectura Zen 4c, una versión 'nativa de la nube' de Zen 4, Bergamo presenta un diseño que tiene una superficie un 35 por ciento más pequeña y el doble de núcleos, con chips optimizados para la eficiencia en lugar de solo el rendimiento.
"Tuvimos que eliminar a un operador tradicional que tenía más del 95 por ciento de participación de mercado, eso no se hace diciendo 'tengo una solución más eficiente', sino que hay que eliminarlo trayendo una solución más eficaz. Pero lo hicimos. "Ahora podemos agregar un dispositivo informático de rendimiento eficiente a nuestra cartera".
La compañía afirma que los hyperscalers han comenzado a comprar la nueva familia de procesadores a escala, atraídos por el ahorro de costos de chips más eficientes energéticamente. “Al final del día, los clientes toman decisiones basándose en su costo total de propiedad: miran la computación que obtienen, la energía que gastan, el espacio que tienen que dedicar a su servidor, y ahí es donde creemos que tenemos una ventaja significativa frente a los competidores”, dijo Papermaster.
“Si no hubiéramos diseñado para este punto, lo habríamos dejado abierto. Pero creemos que con Bergamot tenemos una historia convincente de TCO frente a los competidores de Arm”.
Papermaster defendió x86 contra Arm, que se presenta como más eficiente. "La gente piensa 'oh, Arm es intrínsecamente más eficiente, Arm siempre tendrá un núcleo mucho, mucho más pequeño'", dijo.
"Pero lo más importante es el punto de diseño para el que se optimiza: si toma Arm y optimiza para el punto de diseño de alto rendimiento que tenemos en [AMD CPU] Genoa, y tiene soporte multiproceso simultáneo para instrucciones como 512 vectores de ancho y soporte de red neuronal, entonces el área aumentará significativamente.
“Fuimos por el otro lado: teníamos el núcleo de alto rendimiento. Y dijimos que, para los nativos de la nube, optimizaríamos en un punto diferente de la curva de voltaje y frecuencia, pero agregando más núcleos”.
"Creo que esto supondrá un tremendo desafío para nuestros competidores de Arm", añadió.
Más allá de la CPU, AMD también ha intentado competir en el espacio de los aceleradores, operando como un distante segundo diseñador de GPU.
A medida que la inteligencia artificial generativa se convirtió en la noticia más importante del año, Nvidia dominó los titulares, cortejó a los inversores y batió récords de ventas.
"En este momento, no hay competencia para la GPU en el centro de datos", admitió Papermaster. "Nuestra misión en la vida es generar competencia".
Esa misión comienza con el hardware, con AMD anunciando un MI300X generativo centrado en IA junto con su versión 300A de IA y HPC de uso más general. “¿Habrá más variantes en el futuro?” Postuló Papermaster. "Estoy seguro de que lo habrá".
Pero el hardware sólo llega hasta cierto punto, ya que el dominio de Nvidia se extiende a un amplio conjunto de software utilizado por los desarrolladores de IA, en particular la plataforma de computación paralela CUDA.
"Nuestro enfoque es abierto, y si se encuentra bajo su dominio, podemos transferirlo de inmediato, porque somos una GPU", dijo Papermaster. "Tenemos una herramienta de portabilidad que lo lleva directamente de CUDA a ROCm".
ROCm no es compatible con la API CUDA completa y el kilometraje de portabilidad puede variar según la carga de trabajo. Los desarrolladores todavía dan fe de que CUDA es superior a un puerto ROCm, a pesar de las afirmaciones de Papermaster.
"Hay que hacer algunos ajustes para obtener el mejor rendimiento, pero no será un cuello de botella para nosotros", dijo Papermaster, señalando que la mayoría de los programadores no escriben en el nivel más bajo, sino que utilizan principalmente PyTorch.
AMD también se encuentra en las primeras etapas del uso de la IA para informar el futuro de su propio diseño de chips. “Hemos creado un grupo de IA dentro de la empresa, que está identificando aplicaciones que podrían beneficiarse tanto de la IA predictiva como de la IA generativa. En el diseño de chips en sí, estamos descubriendo que la IA generativa puede acelerar nuestros procesos de diseño en la forma en que colocamos y enrutamos los diferentes elementos y optimizamos la implementación física.
“Estamos descubriendo que está acelerando nuestra verificación en esos circuitos, e incluso nuestra generación de patrones de prueba porque puedes ejecutar un modelo y te indicará la forma más rápida de crear patrones de prueba precisos. También lo estamos usando en nuestra fabricación, porque hemos analizado todos los datos de rendimiento, cuando pruebas nuestros chips en nuestros socios de fabricación, y estamos identificando áreas puntuales que podrían no estar en el punto de productividad más óptimo”.
Aún está por verse hasta qué punto AMD adopta la IA, y tampoco está claro cuánto durará la ola actual de IA. "Nuestra determinación es que la IA no sea una moda pasajera", dijo Papermaster, tocando madera.
Para hacer frente a este impulso informático es necesario que AMD y sus competidores aceleren a toda máquina. "Es necesario tener una computadora equilibrada", dijo Papermaster. “Tenemos que atacar todos los elementos a la vez. No hay un solo cuello de botella: cada generación, lo que nos ven hacer es mejorar los Compute Engines, mejorar el ancho de banda a la memoria, la conductividad de la red y la conectividad de E/S.
“Creemos firmemente en una computadora equilibrada. Tan pronto como te obsesionas con un cuello de botella, tienes un problema serio”.