Vultr ha agregado las GPU Instinct M1300X de AMD a su nube de inteligencia artificial (IA).

Además de los aceleradores AMD, los clientes también pueden acceder al software abierto AMD ROCm para sus implementaciones de IA.

Las GPU AMD Instinct M1300X están construidas sobre la arquitectura AMD CDNA 3 y están diseñadas para IA, incluida IA ​​generativa, y cargas de trabajo informáticas de alto rendimiento.

Las GPU cuentan con 19.456 procesadores de flujo y 1.216 núcleos de matriz. Los aceleradores tienen un rendimiento máximo de precisión de ocho bits (FP8) con escasez estructurada (E5M2, E4M3) de 5,22 petaflops y un rendimiento máximo de precisión doble (FP64) de 81,7 teraflops.

“La innovación prospera en un ecosistema abierto”, afirmó JJ Kardwell, director ejecutivo de Vultr.

“El futuro de las cargas de trabajo de IA empresarial se encuentra en entornos abiertos que permiten flexibilidad, escalabilidad y seguridad. Los aceleradores AMD ofrecen a nuestros clientes una relación costo-rendimiento inigualable. El equilibrio entre una gran cantidad de memoria y bajos requisitos de energía promueve los esfuerzos de sustentabilidad y brinda a nuestros clientes las capacidades para impulsar de manera eficiente la innovación y el crecimiento a través de la IA”.

Negin Oliver, vicepresidente ejecutivo de desarrollo comercial de la unidad de negocios de GPU para centros de datos de AMD, agregó: “Estamos orgullosos de nuestra estrecha colaboración con Vultr, ya que su plataforma en la nube está diseñada para gestionar tareas de inferencia y entrenamiento de IA de alto rendimiento y brindar una eficiencia general mejorada”.

La nube de GPU de Vultr también ofrece GPU Nvidia H100 y chips GH200. En abril de 2024, la empresa lanzó una nueva oferta de nube privada y soberana. La empresa tiene presencia en 32 centros de datos en seis continentes.

El competidor Nscale ofrece una nube de GPU basada en aceleradores M1300X, así como en GPU AMD MI250 y GPU A100, H100 y V100 de Nvidia.

En agosto de 2024, AMD lanzó ROCm 6.2, la última versión de su pila de software de código abierto. Lanzada por primera vez en 2016, ROCm consta de controladores, herramientas de desarrollo, compiladores, bibliotecas y API para respaldar la programación de aplicaciones de HPC e IA generativa en GPU AMD. La última versión ofrece compatibilidad extendida con modelos de lenguaje grande virtuales (vLLM), entrenamiento e inferencia de IA mejorados en aceleradores AMD Instinct y compatibilidad más amplia con FP8.