Por James Lupton, director de tecnología de Blackcore Technologies
Los operadores de centros de datos buscan cada vez más nuevas soluciones de refrigeración para garantizar que sus servidores funcionen de manera eficaz y eficiente.
Las cargas de trabajo de computación de alto rendimiento (HPC) o inteligencia artificial (IA) pueden requerir días de tiempo de ejecución de alta utilización para completar un único conjunto de simulaciones complejas. La falta de refrigeración adecuada para el hardware que ejecuta estas cargas de trabajo puede provocar falta de fiabilidad, fallos y reducir el rendimiento general del sistema del servidor, lo que también puede añadir tiempo de ejecución a la carga de trabajo. Esto significa que el coste total de ejecutar esa carga de trabajo, o el coste total de ejecutar el servidor durante su vida útil, aumentará.
Otro ejemplo de cuándo se necesita una refrigeración no tradicional es durante el overclocking. Al hacer overclocking de un procesador se aumenta la velocidad del reloj, lo que permite que la CPU ejecute más instrucciones por segundo. Esto se ha utilizado normalmente para sistemas de juegos, pero ahora también se utiliza ampliamente en áreas donde se requiere computación rápida y de baja latencia, como el comercio electrónico.
El overclocking aumenta el rendimiento de los componentes de la computadora, pero a costa de consumir más energía y, por lo tanto, de generar más calor residual. Sin la refrigeración adecuada, los componentes simplemente no pueden soportar el calor adicional y fallan, lo que posiblemente haga inútil el aumento de rendimiento.
Para resolver estos desafíos, la refrigeración líquida suele ser la respuesta.
¿Cuáles son los diferentes tipos de refrigeración líquida del centro de datos?
Los tres tipos más comunes de refrigeración líquida son la refrigeración por inmersión, la refrigeración líquida a nivel de rack y la refrigeración líquida autónoma.
La refrigeración por inmersión consiste en colocar todos los componentes del ordenador dentro de un líquido no conductor especial, que suele estar asociado a un componente aceitoso. Existen dos tipos de refrigeración por inmersión: monofásica y bifásica.
- El sistema monofásico funciona bombeando activamente el líquido sobre la fuente de calor, absorbiendo el calor y luego haciendo circular el líquido hacia un intercambiador de calor para enfriarlo nuevamente.
- El sistema bifásico funciona manteniendo el líquido a un punto de ebullición bajo. El calor de los componentes hace hervir el líquido al entrar en contacto con él y este cambio de fase transfiere el calor del componente que está frío. Las burbujas de gas suben a la parte superior del tanque, donde se condensan nuevamente y adquieren forma líquida. El proceso de condensación elimina el calor del refrigerante.
El enfriamiento por inmersión requiere hardware personalizado, espacio de rack no habitual y personalización del centro de datos. También requiere que se defina una pila completa con muy pocas expectativas de mantenimiento, ya que requiere mucho trabajo agregar una tarjeta o una unidad de disco una vez que el sistema ya está implementado. El costo de implementación del enfriamiento por inmersión suele ser significativo en comparación con los otros métodos.
Sin embargo, la ventaja de la refrigeración por inmersión es que proporciona una mayor eficiencia de eliminación de calor en comparación con los sistemas tradicionales basados en ventiladores. Los refrigerantes líquidos son mucho mejores conductores que el aire y requieren menos aporte de energía para circular.
La refrigeración líquida a nivel de rack es el proceso de convertir todo el rack del centro de datos en un extenso circuito de refrigeración líquida. Una gran parte del rack se dedicará a bombear y enfriar el refrigerante líquido. El resto del rack albergará sistemas de servidores que tienen sus principales componentes generadores de calor (CPU, RAM) equipados con bloques de agua o placas frías que conducen el refrigerante por ellos. Estos sistemas luego dirigen las tuberías hacia la parte trasera del chasis, donde tienen válvulas de desconexión rápida.
Esto permite que el circuito de refrigeración interno del servidor se conecte y desconecte del circuito de refrigeración principal a nivel de rack. La refrigeración líquida a nivel de rack proporciona computación de muy alta densidad, ya que se pueden apilar muchos equipos juntos, ya que la infraestructura de refrigeración está un poco abstraída. Sin embargo, esto requiere una solución completa a nivel de rack y, según la complejidad de la implementación, puede aumentar los costos significativamente en comparación con las implementaciones de servidores típicas.
Por último, la refrigeración líquida autónoma implica la incorporación de todo el hardware de refrigeración líquida necesario en el chasis del servidor individual. Esto significa que se bombea refrigerante líquido sobre componentes específicos de la computadora, es decir, el procesador, para transferir el calor a través de un bloque de agua o placa de enfriamiento. Este refrigerante se envía por tuberías a los componentes clave o fuentes de calor y luego regresa a un radiador enfriado por ventiladores internos como en una configuración de servidor tradicional.
La refrigeración líquida autónoma significa que no hay requisitos adicionales de hardware o infraestructura para el centro de datos. Se pueden utilizar bastidores tradicionales y el servidor es básicamente plug-and-play como un servidor típico refrigerado por aire, lo que significa que el servidor tiene capacidades de mantenimiento similares a las de los servidores estándar. El costo de implementación de la refrigeración líquida autónoma tiende a ser más cercano al de los servidores típicos que al de los sistemas refrigerados por inmersión.
La refrigeración líquida no solo sirve para hacer que los servidores sean más eficientes
Los propietarios de centros de datos se están dando cuenta de que pueden aumentar la eficiencia capturando y reciclando la energía residual de su infraestructura existente. Se está implementando una nueva norma ISO para el factor de reutilización de energía (ERF) para ayudar a los centros de datos a medir su desempeño en materia de reutilización de energía y aumentar la sostenibilidad.
Microsoft y Google han comenzado a trabajar en proyectos de reutilización de calor en Finlandia, el primero trabajando con Fortum, y han dicho que "el calor residual producido en los centros de datos se convertirá en calefacción urbana, que servirá a la segunda ciudad más grande de Finlandia, Espoo, y a la vecina Kauniainen, y al municipio de Kirkkonummi, en lo que hasta la fecha será el plan más grande del mundo para reciclar el calor residual de los centros de datos".
Mientras tanto, Google está trabajando con Haminan Energia para reutilizar el calor de su centro de datos existente, lo que “representará el 80 por ciento de la demanda anual de calor de la red de calefacción del distrito local”.
El Reino Unido también está probando planes similares: el proveedor de energía Octopus ha invertido recientemente 200 millones de libras en Deep Green para calentar piscinas cercanas con energía de corriente continua residual.
Las principales limitaciones de los centros de datos
En sectores como el financiero, en particular, se ha producido una tendencia a abandonar la nube, que era una iniciativa basada en los costes, y a volver a los centros de datos ubicados en lugares cercanos a las bolsas de valores o alojados por ellas; esto se ha debido tanto a una perspectiva de rendimiento como de control. Como ocurre con cualquier tecnología, se trata de contar con la "herramienta adecuada para el trabajo adecuado". La nube y los centros de datos remotos funcionan bien para determinados sectores y proyectos, pero siempre habrá una necesidad de hardware de alto rendimiento con proximidad física a ubicaciones específicas.
Cómo la IA, las presiones regulatorias y las cargas de trabajo afectarán el ritmo de adopción de refrigeración líquida
La IA y otros sectores de la informática de alto rendimiento siguen aumentando la densidad energética de los sistemas de servidores montados en bastidor. Este aumento de la potencia de los ordenadores implica un mayor consumo de energía, lo que genera una mayor generación de calor. Para eliminar ese calor de los sistemas de servidores, se necesita, a su vez, más energía para los ventiladores de alto rendimiento en pies cúbicos por minuto (CFM).
Las tecnologías de refrigeración líquida, incluidas la refrigeración a nivel de rack y la inmersión, pueden mejorar la eficiencia de la eliminación del calor de los sistemas de servidores, lo que requiere ventiladores menos potentes. A su vez, esto puede reducir el presupuesto energético general de un rack de servidores.
Al extrapolar esto a grandes secciones de la superficie de un centro de datos, los ahorros pueden sumarse significativamente. Si consideramos que algunas de las últimas ofertas de racks de Nvidia requieren 40 KW o más, podemos empezar a ver cómo los requisitos de energía están cambiando al extremo. Como referencia, no es raro que muchas ubicaciones de comercio electrónico ofrezcan solo racks de 6 a 12 KW, que a veces funcionan medio vacíos debido a que los servidores requieren un mayor consumo de energía del que puede proporcionar el rack.
Estas tendencias obligarán a los centros de datos a adoptar cualquier tecnología que pueda reducir la carga energética no sólo de su propia infraestructura sino también de la infraestructura local que los abastece.
Además, cualquier método para aumentar la eficiencia, ya sea reduciendo la carga general o reutilizando el calor residual, será fundamental para mantener la eficiencia operativa y, al mismo tiempo, escalar para satisfacer las mayores demandas informáticas. Muchos pueden comenzar a considerar la construcción de nuevos centros de datos personalizados enfocados en HPC o IA, con un enfoque desde cero en estos nuevos requisitos.
La ubicación también seguirá jugando un papel importante en la construcción de nuevos centros de datos, ya que el acceso a energía verde y un clima favorable serán nuevos factores clave a considerar.