AMD ha presentado su GPU AMD Instinct MI300X diseñada para cargas de trabajo generativas de IA.
Al admitir hasta 192 GB de memoria HBM3, el acelerador puede admitir algunos modelos de lenguaje grandes, como el Falcon-40B de 40 mil millones de parámetros, en un solo chip.
La GPU se basa en la arquitectura CDNA 3 de próxima generación de la compañía y comenzará a probarse para clientes clave en el tercer trimestre. El chip tiene 153 mil millones de transistores, un ancho de banda de memoria de 5,2 TBps y un ancho de banda de Infinity Fabric de 896 GBps.
En el evento, la compañía también anunció Infinity Architecture Platform, que combina ocho GPU MI300X en un diseño estándar de la industria.
"La IA es realmente la tecnología definitoria que está dando forma a la próxima generación de computación", dijo la directora ejecutiva, la Dra. Lisa Su. "Cuando tratamos de dimensionarlo, pensamos en el acelerador de IA del centro de datos TAM creciendo de algo así como 30 mil millones de dólares este año, más del 50 por ciento de la tasa de crecimiento anual compuesta a más de 150 mil millones en 2027".
AMD también dijo que el MI300A, un acelerador de APU para HPC e IA, ha comenzado a probar a los clientes. Tiene 128 GB de memoria HBM3, 24 núcleos de CPU Zen 4 y más de 146 mil millones de transistores.