Por Martin Olsen, vicepresidente sénior de productos y soluciones en Vertiv
Nos hemos acostumbrado a llamar "ordenadores" a cosas que, hasta hace poco, eran solo objetos cotidianos. Los coches son el ejemplo más conocido. Con más código que un avión de combate y más silicio que acero en algunos casos, se han convertido en ordenadores sobre ruedas, algunos incluso autónomos. Lo mismo ocurre con los frigoríficos, relojes y termostatos inteligentes, y sí, incluso con las lavadoras.
Sin embargo, paradójicamente, no extendemos la misma dignidad digital a los mismos entornos que albergan la computación. Si bien los centros de datos están diseñados específicamente para administrar la infraestructura de TI, a menudo se reducen a bienes inmuebles: los equipos de instalaciones los ven como "edificios" y los equipos de TI como "computación", sin apenas un punto intermedio. Esto ya no es sostenible.
El centro de datos como la próxima unidad de cómputo
Aquí es donde la IA, y en particular la computación acelerada, se convierte en el punto de inflexión. La creciente densidad de cargas de trabajo de IA, impulsada por modelos con billones de parámetros y clústeres de GPU que consumen más de 100 kW por rack, está obligando a replantear las abstracciones tradicionales.
Jensen Huang, CEO de Nvidia, ha argumentado que el centro de datos en sí mismo es ahora la unidad de procesamiento. Se trata de una evolución convincente: Chip > Servidor > Rack > Fila > Sala > Centro de Datos, donde cada capa es una máquina más integrada y optimizada, no un conjunto de piezas sueltas.
451 Research y otros han ido más allá, sugiriendo que pensemos en el centro de datos como una máquina, no como un edificio, la siguiente unidad de cómputo. Las máquinas tienen planos, especificaciones de tolerancia y métricas de rendimiento. Están diseñadas. Medidas. Ajustadas. Repetibles.
La drástica expansión del entrenamiento de IA por parte de grandes proveedores de servicios en la nube y LLM ha comenzado a cambiar las cosas y ha propiciado un aumento en la densidad de potencia de los racks, lo que finalmente ha hecho más convincentes los argumentos basados en la física a favor de la refrigeración líquida (donde la TI y la tecnología térmica están estrechamente integradas). También se está innovando en el suministro y la distribución de energía para una mayor integración con la TI.
Vertiv ha liderado específicamente esta convergencia de TI/TO en varios frentes, incluyendo sus estrechas alianzas tecnológicas con fabricantes de chips líderes, como Nvidia. Recientemente presenté la perspectiva de Vertiv sobre el concepto del centro de datos como la próxima unidad de computación en el evento GTC de Nvidia en San José, California, en una sesión conjunta con la firma de análisis IDC. Los atributos principales de esta idea incluyen:
- El centro de datos en su conjunto se asemeja a una placa de circuito impreso. Es la fusión de energía, refrigeración y servicios de TI, lo que proporciona más de un 20% más de eficiencia energética y un 30% más de eficiencia espacial, todo ello implementado en la mitad de tiempo y con un ahorro del 25% en el coste total de propiedad.
- Otro elemento clave es que este enfoque gestiona cargas de trabajo dinámicas. Es como un equipo de boxes donde el coche se acerca a toda velocidad para una parada en boxes y todo está sincronizado para repostar y cambiar neumáticos. Si se usa demasiado, se desperdicia; si se usa muy poco, se pierde la carrera. Lo mismo ocurre con las GPU que predicen la potencia y la refrigeración con antelación.
Vertiv lanzó recientemente una arquitectura de referencia completa de 7 MW de la plataforma Nvidia GB200 NVL72, desarrollada en colaboración con Nvidia. Esta arquitectura acelera la implementación de la plataforma a escala de rack con refrigeración líquida Nvidia GB200 NVL72 y admite hasta 132 kW por rack. Vertiv continúa su estrecha colaboración con Nvidia en la infraestructura de IA de próxima generación, incluyendo las próximas plataformas de GPU presentadas en el evento insignia de Nvidia, GTC 2025.
Además del argumento de que los centros de datos deberían considerarse unidades de computación, existe una tendencia a clasificar los centros de datos optimizados para IA como «fábricas de IA» e incluso los sitios de hiperescala más grandes como «gigafábricas de IA». Curiosamente, esto también continúa la narrativa del centro de datos como un edificio, aunque dedicado a la «fabricación» de IA a gran escala.
Nvidia también está trabajando con Vertiv y otros para hacer realidad este futuro de fábrica de IA a través de una tecnología de gemelos digitales avanzada, así como el uso potencial de agentes de IA para ir más allá incluso de la exageración sobre la gestión de infraestructura del centro de datos (DCIM) prometida hace casi una década.
La convergencia es inevitable
El camino hacia los centros de datos autónomos empieza a parecerse al de los coches autónomos: más largo de lo previsto, pero muy avanzado. La informática se está convirtiendo en infraestructura. La infraestructura se está volviendo inteligente. Y el centro de datos está evolucionando, pasando de ser un edificio a una máquina.
Ya sea que los llamemos edificios, fábricas o computadoras, con el tiempo se convertirán en semántica. Lo importante es reconocer en qué se han convertido: sistemas inteligentes e interconectados, diseñados para ofrecer IA a gran escala.