En diciembre de 2020, cuando el gigante japonés NTT abrió un centro de datos en Londres , faltaba un gran equipo. Los gerentes de centros de datos de hace unos años se habrían sorprendido al ver que el edificio de 32MW en Dagenham no tiene unidades de aire acondicionado.

En los últimos años, el viejo consenso sobre cómo enfriar un centro de datos ha desaparecido. Y hay más cambios en camino.

"La última tecnología elimina la necesidad de compresores y refrigerantes", dijo Steve Campbell-Ferguson, vicepresidente senior de diseño e ingeniería de EMEA para NTT Global Data Centers, en el evento de lanzamiento virtual de las instalaciones de Dagenham.

Sin enfriamiento mecánico

Este no fue el primer centro de datos que se construyó de esta manera, ni mucho menos. En 2015, Digital Realty afirmó que una instalación de 6MW en Londres que construyó para Rackspace fue la primera en el Reino Unido en no tener refrigeración mecánica.

Y hay razones simples por las que los operadores deberían querer moverse en esa dirección. Los diseñadores de centros de datos quieren reducir la cantidad de energía gastada en eliminar el calor de la carga de TI en el edificio. Antes de que la conservación de energía fuera una gran preocupación, los centros de datos se construían con unidades de aire acondicionado que podían consumir tanta energía como los propios racks de TI.

En el siglo XXI, esta energía “desperdiciada” se convirtió en una preocupación clave, y los constructores pretenden reducirla lo más cerca posible a cero, conduciendo hacia una cifra de PUE de 1.0. Reemplazar las unidades de aire acondicionado con técnicas de enfriamiento más pasivas es una forma de hacerlo, y puede reducir la energía utilizada en el enfriamiento en alrededor del 80 por ciento: NTT prometió un PUE de 1.2 este año, mientras que Rackspace reclamó 1.15 hace cinco años.

El cambio no solo reduce el consumo de energía: también reduce la cantidad de energía y materiales incorporados en el edificio, y también reduce el uso de refrigerantes que son en sí mismos potentes gases de efecto invernadero.

Esta opción no funciona en todas partes del mundo: en climas cálidos o húmedos, habrá una gran cantidad de días al año en los que se necesitarán enfriadores.

Pero hay un principio aquí. A principios de siglo, se asumió que había una forma de mantener fresco un centro de datos: enfriadores mecánicos que conducen aire frío a través de racks de equipos contenidos. Ahora, esa suposición se desglosa.

Junto con el impulso para hacer que los centros de datos sean más eficientes, existe otra razón: los centros de datos ya no son uniformes. Hay varios tipos diferentes y cada uno tiene diferentes demandas.

Los espacios de coubicación, como describimos, tienen un camino bien establecido para reducir o eliminar el uso de enfriamiento mecánico, pero hay otros pasos que pueden necesitar.

También hay clases más nuevas de espacio para centros de datos, con diferentes necesidades. Veamos algunos de estos.

Computación de alto rendimiento (HPC)

Las supercomputadoras solían ser bestias raras, pero ahora existe una necesidad más amplia de computación de alto rendimiento, y este tipo de capacidad está apareciendo en los centros de datos existentes. También está aumentando la densidad de TI y la cantidad de calor que genera, a veces a más de 100 kW por rack.

Teniendo en cuenta la eficiencia, los operadores de centros de datos no quieren enfriar demasiado sus instalaciones, por lo que es posible que simplemente no haya suficiente capacidad de enfriamiento para agregar varios racks de este tipo de capacidad.

Agregar capacidad de HPC puede significar instalar enfriamiento adicional para racks específicos, tal vez con sistemas de enfriamiento distribuidos, que colocan un sistema de enfriamiento como un intercambiador de calor de puerta trasera en racks específicos que necesitan más enfriamiento.

Alternativamente, se puede construir un sistema HPC con un sistema de enfriamiento separado, tal vez usando fluido en circulación o un tanque de inmersión, como los proporcionados por Submer, Asperitas o GRC.

Hiperescala

Las instalaciones gigantes administradas por empresas como Facebook, Amazon y Google tienen varios beneficios sobre el resto del mundo. Son grandes y uniformes, a menudo ejecutan una sola aplicación en hardware estándar en un plano del tamaño de un campo de fútbol.

Los hiperescaladores traspasan algunos límites, incluidas las temperaturas en sus centros de datos. Con la capacidad de controlar todos los aspectos de la aplicación y el hardware que la ejecuta, pueden aumentar la temperatura de funcionamiento, y eso significa reducir la necesidad de refrigeración.

Los hipersensibles Microsoft y Google estuvieron entre los primeros en ir sin enfriadores. En 2009, Google abrió su primera instalación sin refrigeración mecánica, en Saint-Ghislain, Bélgica. Ese mismo año, Microsoft hizo lo mismo en Dublín.

Los centros de datos gigantes se enfrían con aire que se mueve lentamente, a veces se les da un enfriamiento adicional mediante la evaporación. Resultó que la forma que menos consume energía de producir ese tipo de flujo es con una pared de grandes ventiladores que giran lentamente.

El “fan-wall” se ha convertido en una característica estándar de las instalaciones gigantes, y uno de sus beneficios es que se puede expandir junto con la TI. Cada nuevo pasillo de racks necesita otro par de unidades de ventilador en la pared, por lo que el espacio en un edificio se puede llenar de forma incremental.

Aligned Energy construye centros de datos al por mayor y fabrica su propio sistema de enfriamiento Delta3, un ventilador de pared que el CEO Andrew Schaap describe como una "matriz de enfriamiento" para evitar problemas de marcas registradas. Admite hasta 50 kW por rack sin desperdiciar capacidad de enfriamiento, y escala hacia arriba .

"Nadie comienza con 800 W por pie cuadrado", dijo Schaap a DCD en 2020. "Puedo iniciar un cliente con una densidad más baja, digamos 100 W por pie cuadrado, y en dos años, pueden densificar en el mismo espacio sin interrupciones . "

El especialista en refrigeración Stulz ha producido un sistema de pared de abanico llamado CyberWall , mientras que Facebook desarrolló uno en asociación con el especialista Nortek .

Edge

Las aplicaciones distribuidas como Internet de las cosas pueden exigir una respuesta rápida de los servicios, y eso ha llevado a la propuesta de los centros de datos Edge: microinstalaciones que se colocan cerca de la fuente de datos para proporcionar respuestas de baja latencia (rápidas).

Edge aún está emergiendo, y habrá una amplia variedad de instalaciones Edge, incluidas instalaciones del tamaño de un contenedor de envío, quizás ubicadas en torres de telefonía celular, armarios o salas de servidores en edificios existentes, o pequeños recintos al nivel del mobiliario urbano.

Hay un hilo común aquí: poner TI en espacios para los que no fue diseñado. Y mantener la temperatura en todos estos espacios será un gran desafío.

Algo de esto se enfriará tradicionalmente. Proveedores como Vertiv y Schneider tienen micro centros de datos en contenedores que incluyen su propio aire acondicionado incorporado.

Otra capacidad de Edge estará en habitaciones dentro de los edificios, que ya tienen sus propios sistemas de refrigeración. Es posible que estas salas de servidores y armarios simplemente tengan un conducto de CA conectado al sistema de enfriamiento existente del edificio, y esto puede no ser suficiente.

“Imagínese un armario de oficina tradicional”, dijo Glenn Wishnew de Vertiv en un webcast reciente. "Eso nunca ha sido diseñado para una carga de calor de TI". El aire acondicionado para espacios de oficina generalmente está diseñado para funcionar con 5W por pie cuadrado, mientras que el equipo del centro de datos necesita alrededor de 200W / pie cuadrado.

Agregar infraestructura de enfriamiento a esta capacidad de Edge puede resultar difícil. Si el equipo está en un entorno de oficina abierta, los ventiladores ruidosos y el aire acondicionado pueden estar fuera de lugar.

Eso ha llevado a algunos a predecir que la refrigeración líquida puede ser una buena opción para la capacidad de Edge. Es silencioso e independiente del entorno circundante, por lo que no exigirá nada al edificio ni molestará a los ocupantes.

Los sistemas de inmersión protegen el equipo de forma segura lejos del exterior, por lo que no es necesario regular el aire y la humedad del exterior. Eso llevó a los proveedores a lanzar sistemas prediseñados como el MicroPod de Submer, que coloca 6 kW de TI en una caja de un metro de altura.

El problema que hay que superar, por supuesto, es la falta de experiencia en el uso de estos sistemas. La capacidad perimetral se distribuirá y ubicará en lugares donde sea difícil obtener soporte técnico rápidamente.

Los operadores de Edge no instalarán ningún sistema que no esté completamente probado y probado en el campo, porque cada visita al sitio costará cientos de dólares.

Sin embargo, la refrigeración líquida debería ser, en última instancia, una buena opción para Edge e incluso proporcionar una mayor fiabilidad que la refrigeración por aire. Como señala David Craig, de otro proveedor de inmersión, Iceotope, estos sistemas no tienen partes móviles: "La tecnología de enfriamiento inmersivo elimina la necesidad de mantenimiento intrusivo y el tiempo de inactividad relacionado".