Los datos de Uptime Institute sobre la efectividad del uso de energía (PUE) son un testimonio del progreso que la industria de los centros de datos ha logrado en eficiencia energética en los últimos 10 años. Sin embargo, el PUE promedio global se ha estancado en gran medida en cerca de 1,6 desde 2018, con solo ganancias marginales. Esto tiene sentido: para que la cifra promedio muestre una mejora sustancial, la mayoría de las instalaciones requerirían revisiones financieramente inviables de sus sistemas de enfriamiento para lograr eficiencias notablemente mejores, mientras que las construcciones modernas ya operan cerca de los límites físicos del enfriamiento por aire.
Un vistazo al liquido
Un número creciente de operadores buscan la refrigeración líquida directa (DLC) para el próximo salto en la eficiencia de la infraestructura. Pero un cambio a la refrigeración líquida a gran escala implica complejidades operativas y de la cadena de suministro que desafían incluso a las organizaciones técnicas más ingeniosas. Uptime solo tiene conocimiento de un operador importante que ejecuta DLC como estándar: el proveedor francés de alojamiento y nube OVHcloud, que es un caso atípico con una infraestructura integrada verticalmente que utiliza diseños de servidores y placas frías de agua internas personalizadas.
Cuando se trata del uso de refrigeración líquida, una parte de la infraestructura de refrigeración que a menudo se pasa por alto es el rechazo de calor. Rechazar el calor a la atmósfera es una fuente importante de ineficiencias, que se manifiestan no solo en el uso de energía, sino también en costos de capital y en grandes reservas de energía para las necesidades de enfriamiento en el peor de los casos (día de diseño).
Una pequeña cantidad de centros de datos han estado utilizando elementos de agua como disipadores de calor con éxito durante algunos años. En lugar de eliminar el calor a través de torres de agua, enfriadores refrigerados por aire u otros medios que dependen del aire ambiente, algunas instalaciones usan el circuito cerrado de agua enfriada, que rechaza el calor a través de un intercambiador de calor enfriado por un circuito abierto de agua. Estos diseños de enfriamiento que utilizan disipadores de calor de agua amplían los beneficios de las propiedades térmicas del agua desde el transporte de calor dentro del centro de datos hasta el rechazo de calor fuera de las instalaciones.
La idea de usar agua para disipar el calor, por supuesto, no es nueva. Conocidos como enfriamiento de un solo paso, estos sistemas se utilizan ampliamente en las industrias de fabricación y generación de energía termoeléctrica por su eficiencia y confiabilidad en el manejo de grandes cargas de calor. Debido a que las infraestructuras de TI son relativamente más pequeñas y tienden a agruparse alrededor de los centros de población, que a su vez tienden a estar situados cerca del agua, Uptime considera que el enfoque tiene una amplia aplicabilidad geográfica en futuros proyectos de construcción de centros de datos.
La investigación de Uptime ha identificado más de una docena de sitios de centros de datos, algunos operados por marcas globales, que utilizan una fuente de agua como disipador de calor. Todos los diseños de refrigeración de un solo paso utilizan algunos equipos personalizados; actualmente no hay diseños listos para usar que estén disponibles comercialmente para centros de datos. Si bien las instalaciones que estudiamos varían en tamaño, ubicación y algunas opciones de ingeniería, existen algunos puntos en común entre los proyectos.
Los operadores que hemos entrevistado para la investigación (todos ellos proveedores de colocación) consideraron que sus proyectos de refrigeración de paso único eran un éxito tanto técnico como comercial, logrando un sólido rendimiento operativo y atrayendo clientes. Según se informa, la crisis de los precios de la energía que comenzó en 2021, combinada con una carrera empresarial por reclamar sólidas credenciales de sostenibilidad, impulsó el nivel de rendimiento de estas inversiones incluso más allá de los escenarios optimistas.
Rechazar el calor en cuerpos de agua permite PUE estables durante todo el año, lo que significa que los proveedores de colocación pueden atender una mayor carga de TI desde el mismo entorno de energía del sitio. Otro beneficio es la capacidad de reducir la temperatura de la sala de computadoras, por ejemplo, 18 °C a 20 °C de forma "gratuita": esto no viene con una penalización de PUE. El suministro de aire a baja temperatura ayuda a los operadores a minimizar las fallas de los componentes de TI y acomoda futuros servidores de alto rendimiento con suficiente enfriamiento. Si la fuente de agua fluye naturalmente o se repone, los operadores también eliminan la necesidad de enfriadores u otros grandes sistemas de enfriamiento de su infraestructura, que de otro modo serían necesarios como respaldo.
Aún así, el hecho de que estos resultados favorables superen las inversiones requeridas estuvo lejos de ser seguro durante el diseño y la construcción, ya que todas las tareas involucraron esfuerzos de ingeniería no triviales y costos asociados. El patrocinio comprometido de la alta dirección fue fundamental para dar luz verde a estos proyectos y superar cualquier dificultad inesperada.
Prevemos un mercado más maduro
Animado por la experiencia positiva de las instalaciones que estudiamos, Uptime espera que el enfriamiento continuo genere más interés en el futuro. Un mercado más maduro para estos diseños tendrá en cuenta las decisiones de ubicación, así como los requisitos de permisos jurisdiccionales como indicador de eficiencia y sostenibilidad. Los sistemas de un solo paso también ayudarán a maximizar los beneficios de eficiencia energética de los futuros lanzamientos de DLC a través de operaciones de baja temperatura "gratuitas", creando una infraestructura de refrigeración líquida de extremo a extremo.