Los data centers son el núcleo de la infraestructura tecnológica global y desempeñan un papel fundamental en el almacenamiento y procesamiento de datos personales, empresariales y de organizaciones de todo tipo. En 2021, se registró un aumento del 23% en el tráfico de internet a nivel mundial, y se estima que para el año 2025 la cantidad de datos globales se incrementará a más de 180 zettabytes. Con este crecimiento exponencial en el consumo y generación de datos, surge la necesidad de aumentar la densidad de servidores en los data centers. Sin embargo, este incremento también conlleva un mayor uso de energía y la generación de una gran cantidad de calor, lo cual plantea la importancia de los sistemas de refrigeración en este escenario, considerando que los equipos deben funcionar de manera continua, las 24 horas del día, los 7 días de la semana.

Según Pablo Ruiz, vicepresidente de Field Services de la región de Iberia en Schneider Electric, los centros de datos desempeñan un papel crucial en la estrategia de digitalización y en la construcción de un futuro más sostenible. En la actualidad, el consumo de energía en estas operaciones de misión crítica representa entre el 1% y el 1,5% del consumo eléctrico global. Sin embargo, con la tasa de crecimiento actual, se estima que para el 2025 esta cifra podría llegar al 6%. Por lo tanto, es vital enfocar más esfuerzos en mejorar la eficiencia energética de los equipos de procesamiento y refrigeración, con el objetivo de reducir el consumo y lograr un equilibrio entre la energía utilizada y la generada o perdida.

De hecho, se estima que aproximadamente el 40% de la energía consumida en un centro de datos se destina a los sistemas de refrigeración, los cuales son responsables de mantener un entorno con temperatura controlada durante todo el día. Por eso, para garantizar que el mundo siga conectado, invertir en sistemas de enfriamiento eficientes, diseñados para extraer el calor generado por los servidores y mantener la temperatura dentro de los niveles adecuados de la forma más económica posible, debe ser una de las prioridades de los gestores que buscan un rendimiento óptimo y evitar problemas como el sobrecalentamiento, las interrupciones y la reducción de la vida útil de los servidores.

En la década crucial para la eficiencia energética, según la Agencia Internacional de Energía, hemos presenciado avances significativos y una mayor preocupación por parte de los fabricantes en el diseño de equipos con mejores índices de eficiencia. La industria de enfriamiento se está adaptando y evolucionando para enfrentar los desafíos y aprovechar las oportunidades que el sector enfrenta, impulsando la creciente demanda de soluciones de climatización de bajo carbono en un escenario de calentamiento global y alta densidad de datos en las operaciones de misión crítica alrededor del mundo.

¿El fin del uso del aire?

El enfriamiento por aire sigue siendo la opción más tradicional y ampliamente empleada en los centros de datos. Se basa en el uso de unidades de aire acondicionado y sistemas de ventilación para distribuir aire frío en la operación y extraer el aire caliente generado por los equipos. Aunque es una solución comprobada y fiable, Mario Vasconcelos, Sales Enterprise Accounts Director en Vertiv, señala que puede ser menos eficiente energéticamente en comparación con otros métodos de enfriamiento y presenta ciertas desventajas. "Una de las primeras limitaciones que encontramos en el enfriamiento por aire es el espacio que ocupa, ya que este tipo de refrigeración requiere de una infraestructura adecuada, como conductos de aire, ventiladores y acondicionadores de aire, que ocupa un espacio significativo dentro del centro de datos", comenta el ejecutivo.

"Además, la refrigeración por aire requiere una mayor cantidad de energía para enfriar los equipos en el centro de datos, lo que aumenta los costos operativos. A su vez, en los CPDs con una gran cantidad de racks y equipos, puede haber una distribución desigual del aire frío, implicando que algunas áreas reciban una refrigeración insuficiente, lo que puede generar puntos calientes y aumentar el riesgo de fallos en los equipos. Esto puede llevar a un mayor consumo de energía y a desafíos adicionales para mantener las temperaturas bajo control. Todo esto se puede traducir como un impacto negativo en el medio ambiente, especialmente si la energía utilizada proviene de fuentes no renovables", concluye Vasconcelos.

Actualmente, ya existen tecnologías innovadoras que combinan la distribución eficiente del aire y la gestión inteligente de la energía para lograr un enfriamiento efectivo y reducir el consumo energético. Esto es especialmente relevante ya que los sistemas de enfriamiento representan uno de los mayores consumidores de electricidad en los centros de datos.

Además, algunos centros de datos han comenzado a invertir en refrigeración por inmersión utilizando combustibles vegetales como alternativa. Un ejemplo notable es la multinacional Cargill, que el año pasado lanzó NatureCool, un refrigerante de inmersión sostenible y eficiente elaborado con aceite de soja, cuyo objetivo es reemplazar los fluidos basados en petróleo en los centros de datos. Según la empresa, esta solución de enfriamiento puede reducir el consumo de energía hasta un 60% en comparación con los sistemas convencionales de refrigeración por aire.

Pero, aun considerando todo eso, la pregunta persiste: ¿qué solución de enfriamiento elegir? Los expertos difieren en opiniones y estamos lejos de tener una decisión única y cerrada. La respuesta depende y puede variar según el tamaño del centro de datos, el espacio disponible para los equipos, la densidad, su ubicación geográfica y la disponibilidad de recursos con los que cuentan las empresas que operan estas infraestructuras críticas.

Adicionalmente, también es cierto que para un centro de datos que ha estado en funcionamiento durante un tiempo, cambiar todo su sistema de refrigeración de aire a soluciones de enfriamiento líquido no solo es costoso, sino que a menudo es inviable debido a que muchas instalaciones no fueron diseñadas teniendo en cuenta la posibilidad de un cambio de los sistemas de cooling.

De este modo, aunque haya un claro avance en el uso y la creación de nuevas tecnologías basadas en refrigeración líquida y por inmersión, los sistemas de refrigeración por aire siguen estando presentes en la gran mayoría de los centros de datos alrededor del mundo. Y tanto fabricantes como clientes se muestran cautelosos a la hora de adoptar nuevos enfoques de enfriamiento, sea por la falta de familiaridad, la percepción de riesgo o la necesidad de justificar la inversión adicional.

Según Pedro Nascimento, Rooms Cooling Consultant en Altice Portugal, "implementar y mantener un sistema de refrigeración por aire en un centro de datos es más sencillo en comparación con un sistema de refrigeración por agua, que es más complejo y, a veces, requiere más espacio debido al tamaño y la tipología de las tuberías, así como a la cantidad de componentes necesarios". Sin embargo, a medida que aumenta la densidad de los racks, los sistemas de refrigeración por aire pueden resultar insuficientes. En estos casos, el enfriamiento líquido se convierte en una alternativa viable para los centros de datos con una alta carga térmica, como los hyperscales.

El futuro es líquido

Para Mario Vasconcelos, Sales Enterprise Accounts Director en Vertiv, “está demostrado que la refrigeración líquida ofrece diversas ventajas en comparación con la refrigeración por aire, lo que supone un avance no solamente en el impacto medioambiental que esto pueda ocasionar sino también en los avances tecnológicos. Partimos de la premisa de que el agua u otros líquidos tienen una capacidad calorífica mucho mayor que el aire, lo que significa que pueden absorber y disipar el calor de manera más eficiente, traduciéndose en menor consumo de energía y costos operativos en comparación con la refrigeración por aire. Al mantener las temperaturas más bajas y estables, la refrigeración líquida puede ayudar a mejorar el rendimiento y la vida útil de los equipos en los CPDs”.

A este respecto, de acuerdo con Vertiv, el liquid cooling presenta cinco beneficios principales para infraestructuras con alta densidad:

  • Mejora el rendimiento de TI: la refrigeración líquida mejora la confiabilidad y el rendimiento de TI al evitar el sobrecalentamiento de las CPU y permitir que los sistemas de alta densidad funcionen a su máximo rendimiento sin reducir su voltaje y frecuencia de reloj.
  • Mejora en la eficiencia energética: permite ahorros significativos de energía al tener propiedades de transferencia térmica más altas que el aire y eliminar la necesidad de ventiladores.
  • Sostenibilidad: la refrigeración líquida reduce el consumo de energía en los centros de datos, mejora la eficiencia (PUE) y permite reutilizar el calor capturado, reduciendo la demanda en los sistemas de calefacción del edificio.
  • Maximizar la utilización del espacio: la refrigeración líquida permite maximizar el espacio en el centro de datos, evitando expansiones o construcciones nuevas, y soportando aplicaciones de borde con alta demanda de procesamiento en espacios limitados.
  • Menor costo de propiedad: según ASHRAE, la refrigeración líquida en los centros de datos puede mejorar el costo total de propiedad a través de una mayor densidad, un mayor uso del free cooling y un mejor rendimiento por vatio.

OVHcloud se suma a la lista de empresas que se benefician de las soluciones de enfriamiento líquido. Desde 2003, la empresa ha reconocido las ventajas de la menor resistencia térmica del agua en comparación con la refrigeración por aire. En consecuencia, han desarrollado, utilizado y perfeccionado un sistema de refrigeración líquida para disipar eficientemente el calor residual generado por los procesadores, que son los componentes que consumen más energía en los servidores. Gracias a esta tecnología, ha logrado mejorar significativamente la eficiencia y el rendimiento de sus sistemas de enfriamiento, lo que les permite mantener una temperatura óptima y reducir el consumo energético.

Principales métodos de refrigeración líquida

  1. Enfriamiento líquido directo (DLC): este método implica el uso de un líquido refrigerante para enfriar directamente los componentes calientes, como los procesadores y las tarjetas gráficas, en los servidores. El líquido se distribuye a través de tuberías o canales específicos, absorbiendo el calor y llevándolo a una unidad de refrigeración. El enfriamiento líquido directo permite una disipación de calor más eficiente y puede ayudar a reducir la temperatura de los componentes de manera significativa. Según Vertiv, este método de cooling puede eliminar aproximadamente el 70-75% del calor generado por el equipo en el bastidor.
  2. Enfriamiento líquido indirecto (ILC): en este enfoque, el líquido refrigerante no entra en contacto directo con los componentes calientes del servidor. En su lugar, se utiliza un intercambiador de calor para transferir el calor desde los componentes al líquido refrigerante. El líquido refrigerante circula a través de un sistema cerrado y se enfría en una unidad de refrigeración externa antes de ser recirculado nuevamente.
  3. Enfriamiento por inmersión: esta técnica sumerge completamente los componentes electrónicos en un líquido dieléctrico, no conductor y no corrosivo, especializado para enfriarlos. El líquido dieléctrico tiene una alta capacidad para absorber y disipar el calor, lo que permite una refrigeración eficiente de los equipos. Además, el enfriamiento por inmersión elimina la necesidad de ventiladores y reduce el ruido generado por los sistemas de enfriamiento tradicionales. Sin embargo, requiere un diseño especializado y consideraciones adicionales de seguridad.
  4. Enfriamiento por placa posterior (Rear Door Cooling): este enfoque implica la instalación de una unidad de enfriamiento en la parte trasera de los racks de servidores. La unidad utiliza un sistema de circulación de líquido refrigerante para extraer el calor de los componentes calientes. El aire caliente generado por los servidores se encuentra con la unidad de enfriamiento, donde se disipa el calor antes de ser recirculado nuevamente. El enfriamiento por placa posterior es una solución relativamente fácil de implementar y es especialmente útil en data centers donde no es posible ampliar o modificar la infraestructura existente.

En general, el proceso de introducir el enfriamiento líquido en un centro de datos enfriado por aire requiere una planificación cuidadosa y una ingeniería adecuada. Sin embargo, cada vez más operaciones están invirtiendo en la transición y optando por soluciones que aumentan la eficiencia y reducen los costos operativos a largo plazo. De este modo, es probable que en los próximos años se observe una mayor adopción de la tecnología de refrigeración líquida en los centros de datos a medida que continúa su desarrollo y se abordan los desafíos que conlleva: la necesidad de mayor eficiencia energética, el aumento en la densidad de los equipos y una creciente conciencia ambiental en todo el mundo.