Durante al menos 15 años, ha habido un consenso en la industria de los centros de datos de que la forma de operar los centros de datos de manera más eficiente es operarlos más cálidos. Ahora, justo cuando algunas de las partes más conservadoras de la industria finalmente están tomando medidas en respuesta, hay señales de que las cosas pueden no ser tan sencillas.

A primera vista, es obvio. Cuando la industria comenzó a tomarse en serio la eficiencia a mediados de la década de 2000, los ingenieros notaron que los centros de datos gastaban la mitad de su energía (o más) en enfriar el edificio, y solo la mitad llegaba a los racks de los servidores de TI.

Obviamente, si eso pudiera reducirse, el centro de datos en su conjunto usaría menos energía. La industria creó la métrica PUE y, a partir de entonces, se centró en reducir la energía utilizada en la refrigeración de los centros de datos.

Un giro hacia el calentamiento

Una forma de gastar menos energía en enfriar el centro de datos sería dejar que se caliente. Los operadores de centros de datos mantenían los centros de datos por debajo de los 20°C. Esto se vio como un desperdicio de energía en el proceso, porque el hardware de TI funcionó bien a temperaturas más altas.

En 2004, ASHRAE (Sociedad Estadounidense de Ingenieros de Calefacción, Refrigeración y Aire Acondicionado) recomendó un rango de temperatura de funcionamiento de 20°C a 25°C. En 2008, sugirió que las temperaturas podrían elevarse a 27°C. Una revisión adicional ha llevado esto a 32°C dependiendo de las condiciones.

La Administración de Servicios Generales de EE.UU. dice que los centros de datos ahorran un cuatro por ciento de su energía total, por cada grado que permiten que suba la temperatura.

Las empresas de hiperescala se dieron cuenta de esto, y Facebook llevó sus centros de datos de Prineville y Forest City a 29,4 °C, Google subió a 26,6 °C. Joe Kava, vicepresidente de centros de datos de Google, dijo: "Google maneja los centros de datos más cálidos que la mayoría porque ayuda a la eficiencia".

Durante diez meses en 2008, Intel tomó 900 servidores y ejecutó la mitad de ellos en un centro de datos con refrigeración tradicional, mientras que los otros 450 no recibieron refrigeración externa, alcanzando temperaturas de hasta 33,3°C. No hubo efectos negativos e Intel afirmó que había ahorrado el 67 por ciento de su presupuesto de energía.

La mayor parte de la industria no pareció aceptarlo. Ha sido necesario hasta este año, antes de que el gigante de la colocación Equinix anunciara que "ajustaría sus termostatos" y calentaría sus centros de datos. Pero el anuncio solo prometía elevar las temperaturas hasta los 27°C, dentro de los objetivos establecidos por ASHRAE hace 14 años.

Y es solo una propuesta en esta etapa, sin efecto inmediato. Equinix dice que notificará a los clientes en algún momento en el futuro y negociará con ellos el aumento de la temperatura, de acuerdo con una "hoja de ruta global de varios años".

Tal vez enfriar sea lo mejor

Está claro que Equinix está preparando un proceso en el que aún tendrá que convencer a los clientes para que abandonen los niveles de enfriamiento que han sido la norma. Está presentando esto como una forma para que los clientes ayuden a Equinix a reducir sus propias emisiones y, por lo tanto, reduzcan sus emisiones de Alcance 3: las emisiones en su cadena de suministro.

Pero, sorprendentemente, hay algunas pruebas de que esos clientes pueden tener razón. Permitir que las temperaturas aumenten es en realidad una bendición mixta.

El profesor Jon Summers, de los Institutos de Investigación de Suecia (RISE), sugiere que muchos de los beneficios que se afirman para las temperaturas del aire más altas pueden ser completamente falsos y quizás un artefacto de la métrica PUE obsoleta.

La optimización de PUE trata la energía en los racks como "buena", mientras que la energía fuera de los racks es un desperdicio. El profesor Summers ha llevado a cabo una investigación que sugiere que cortar la energía en los sistemas de refrigeración fuera de los racks en realidad aumenta la energía que utilizan los servidores para realizar los mismos cálculos.

Los servidores más cálidos encenderán sus ventiladores, usando electricidad, y también perderán energía y efectividad en las corrientes de fuga.

“El aumento de las temperaturas mejorará el ISO PUE de un DC, que la gran mayoría parece citar como una medida de eficiencia”, dice Summers. “En los Institutos de Investigación RISE de Suecia, en el centro de datos ICE, hemos investigado el efecto de la temperatura de suministro en equipos de TI de CC utilizando túneles de viento, centros de datos completamente enfriados por aire, directos al chip y sistemas de inmersión conectados a sistemas bien controlados con bancos de pruebas de refrigeración líquida”, dice Summers. “El resultado es que, independientemente del método de enfriamiento, los microprocesadores consumen más energía cuando funcionan a mayor temperatura para la misma carga de trabajo digital debido a las fugas de corriente”.

Por lo tanto, calentar más cambia parte del uso de energía del edificio a los bastidores de TI, en otro ejemplo más del dinero que se pasa entre los viejos silos de OT y TI.

Summers y su colega Tor Björn Minde dicen que los centros de datos deben funcionar "lo más fríos posible", especialmente si hay un suministro de aire fresco disponible en el exterior.

Me parece que hay una compensación aquí, entre la energía utilizada en una parte del edificio y otra.

Dentro de poco, deberíamos tener más información sobre esto de Interact, el spin-off de TechBuyer que analiza el uso de energía del servidor (y que ganó un premio DCD ). Aquí hay un adelanto de sus propios experimentos.

Durante este año, podríamos encontrarnos trabajando en un nuevo consenso sobre el enfriamiento del centro de datos.


Por Peter Judge, Editor global de DatacenterDynamics.