AMD ha registrado unos ingresos récord en su segmento de centros de datos por un valor total de 3.500 millones durante el tercer trimestre de 2024, lo que representa un aumento interanual del 122 por ciento.
La compañía ha dicho que el crecimiento se ha debido principalmente a las ventas de GPU AMD Instinct y CPU AMD Epyc. Durante el tercer trimestre, los ingresos por los centros de datos de AMD representaron el 52 por ciento de los ingresos totales, una cifra que se espera que aumente en el cuarto trimestre.
Los ingresos operativos del segmento de centros de datos fueron de 1.000 millones de dólares, o el 29 por ciento de los ingresos, en comparación con los 306 millones de dólares o el 19 por ciento del año anterior, mientras que los ingresos operativos del segmento de centros de datos se triplicaron en comparación con el año anterior, impulsados por mayores ingresos y apalancamiento operativo.
Los ingresos totales del trimestre fueron de 6.800 millones de dólares, un 18 por ciento más que el año anterior.
En la conferencia de resultados, la directora ejecutiva de AMD, la Dra. Lisa Su, dijo que la cartera de productos de la compañía se está "fortaleciendo con la cadencia anual" con el lanzamiento de su última GPU para centros de datos MI325X a finales de este trimestre, seguida por el lanzamiento de la MI355X en la segunda mitad de 2025.
Cuando se le preguntó si, a pesar de los éxitos de la compañía, sigue un año detrás del líder del mercado, Nvidia, Su no estuvo de acuerdo y dijo que, si bien el MI300 podría haber estado detrás del H100 en el lanzamiento, debido a que el H100 estuvo en el mercado durante tanto tiempo, AMD ha acelerado su hoja de ruta y "cerró una buena parte de esa brecha".
"Creo que el MI325X es un gran producto. Competirá muy bien con el H200 y la serie MI350 competirá muy bien con Blackwell", afirmó, y añadió que también se debe asumir que la empresa está "trabajando con todos los grandes clientes que existen".
AMD presentó el MI325X en el evento Advancing AI. El nuevo acelerador está basado en la arquitectura CDNA 3 y cuenta con 256 GB de HBM3E, además de soportar 6 Tbps y ofrecer 1,8 veces más capacidad y 1,3 veces más ancho de banda que la GPU H200 de Nvidia.
También tiene 1,3 veces el rendimiento teórico máximo de cálculo FP16 y FP8 del H200, afirma la compañía.
De cara al futuro, Su dijo que se espera que el mercado total direccionable del acelerador de IA crezca más del 60 por ciento anualmente hasta los 500 mil millones de dólares en 2028, y señaló que esto es aproximadamente equivalente a las ventas anuales de toda la industria de semiconductores en 2023.
“Este es un momento increíblemente emocionante para AMD, ya que la amplitud de nuestra tecnología y carteras de productos combinadas con nuestras profundas relaciones con los clientes y la diversidad de mercados a los que nos dirigimos nos brindan una oportunidad única a medida que ejecutamos nuestro próximo arco y convertimos a AMD en el líder de IA de extremo a extremo”, afirmó Su.