Los centros de datos reúnen una gran cantidad de servidores en un solo lugar y ejecutan aplicaciones en ellos. Ya sea que se trate de centros de datos empresariales, de colocación o en la nube, tienen que operar las 24 horas del día, los 7 días de la semana, para admitir esas aplicaciones de misión crítica, por lo que, a medida que surgieron los centros de datos, la primera prioridad fue desarrollar la confiabilidad.

Una vez que se realizó la tarea de confiabilidad, los costos y la eficiencia salieron a la luz. Esos centros de datos tempranos fueron diseñados y enfriados en exceso para garantizar la confiabilidad, pero rápidamente se hizo evidente que más de la mitad de la energía que consumían se destinaba a mantener el hardware fresco, y menos de la mitad se usaba realmente en el cálculo.

Diez años de trabajo en la eficiencia de los sistemas de enfriamiento nos han dado una generación actual de instalaciones con una efectividad de uso de energía (PUE) de 1.2 o menos, lo que significa que más del 80 por ciento de la energía que usan se quema en los propios servidores.

Potencia al servidor

Por lo tanto, es hora de comenzar a mirar con más detalle la potencia utilizada por los servidores, como un componente importante de la energía utilizada por los centros de datos. En febrero, el Laboratorio Nacional Lawrence Berkeley coescribió un informe encargado por el Departamento de Energía de EE. UU., que reveló algunas estadísticas interesantes.

En primer lugar, el estudio confirmó una regla general citada a menudo, que los centros de datos ahora consumen una parte pequeña pero significativa de la energía global. Sin embargo, ha aumentado hasta alrededor del dos por ciento, el informe del DOE reconoce que estuvo más cerca del uno por ciento en 2018.

Esto suena como una cifra manejable, pero enmascara áreas donde los centros de datos se han convertido en una carga. Por ejemplo, Irlanda se enfrenta a un auge en la construcción de centros de datos y tiene una capacidad limitada para hacer crecer su red. La Academia Irlandesa de Ingeniería ha pronosticado que en 2027, el 31 por ciento de toda la energía en la red irá a los centros de datos.

En segundo lugar, y más interesante, el informe muestra que esta cifra general no está creciendo tan rápido como algunos temían.

Durante la última década, las cosas han cambiado drásticamente. En 2018, las cargas de trabajo del centro de datos y las instancias de cómputo aumentaron más de seis veces en comparación con 2010, pero el uso de energía solo aumentó un seis por ciento.

Mejoras de rendimiento y costo

"El aumento de la eficiencia energética del centro de datos no es solo una estrategia respetuosa con el medio ambiente, sino también una forma crucial de administrar los costos, convirtiéndolo en un área que la industria debería priorizar", dijo Jim Dearnden, parte de la división de energía del centro de datos EMEA de Dell Technologies. "La mayoría de los gerentes de TI están interesados ​​en aumentar su eficiencia energética en relación con su centro de datos, particularmente cuando hacerlo también ayuda a mejorar el rendimiento y reducir los costos".

Está claro que los centros de datos han visto enormes aumentos de eficiencia, y como cabría esperar de las cifras de PUE, la mayoría de estos han estado en el lado de refrigeración de la instalación. Pero durante ese mismo período de ocho años, el consumo de energía del servidor aumentó en un 25 por ciento.

Este es un aumento sustancial, aunque es un aumento mucho menor que el aumento de seis veces en las cargas de trabajo que anotó el estudio. Está claro que el servidor también se está volviendo más eficiente, ganando la capacidad de manejar cargas de trabajo más altas con menos potencia.

Gran parte de esto se debe a procesadores más potentes. Todavía estamos en la era de la Ley de Moore, donde la cantidad de transistores en un chip se ha duplicado cada dos años, según lo previsto por Gordon Moore, el CEO de Intel.

Más transistores en un chip significan más potencia de procesamiento para una cantidad dada de energía eléctrica porque se puede hacer más de ese cálculo dentro del chip, utilizando el pequeño presupuesto de potencia de los sistemas en chip, sin tener que amplificar las señales para transmitir al silicio vecino .

La Ley de Moore implica que la potencia computacional de los procesadores debería duplicarse cada 18 meses, sin ningún aumento en la energía eléctrica consumida, según una observación del colega de Moore, David House, en 1975.

Además de en los procesadores, se ha eliminado el desperdicio de energía en todos los componentes que componen los servidores reales en los centros de datos.

Supermicro fabrica placas de procesador de "marca blanca" utilizadas por muchos grandes constructores de centros de datos, y ha sido un trabajo duro para reducir las ineficiencias de sus servidores, según Doug Herz, director senior de marketing técnico de la compañía.

"El consumo de energía eléctrica del centro de datos en los Estados Unidos ha comenzado a disminuir", dijo a DCD en una entrevista. "No está subiendo tan rápido debido a una serie de tecnologías de ahorro de energía. A pesar de que las personas hacen más, lo hacen con menos energía eléctrica ”.

Supermicro ha descubierto la parte del rompecabezas en la que puede ayudar: "Los fabricantes no se han centrado en los servidores inactivos y su costo", dijo Herz. "Y un software de administración más reciente puede ayudar a mantener ese consumo bajo".

Potencia inactiva

Un servidor de cinco años puede usar 175W cuando está inactivo, que no es mucho menos que cuando está en uso. El consumo de energía del servidor inactivo ha mejorado en los últimos años, pero aún así, Herz estima que los centros de datos con servidores inactivos pueden estar desperdiciando un tercio o incluso la mitad de la energía que reciben.

El software de administración más reciente puede equilibrar las cargas de trabajo, distribuyendo tareas para que los servidores pasen menos tiempo inactivo. "Este software se utiliza no solo para monitorear los servidores en su centro de datos, sino también para equilibrar la carga de los servidores en su centro de datos y optimizar la energía eléctrica", dijo Herz.

“Si tiene una cantidad establecida de cargas de trabajo que tiene que distribuir en un cierto número de servidores en su centro de datos, tal vez haya formas más eficientes de hacerlo. Intente optimizar los servidores en su centro de datos para que pueda ejecutar algunos de ellos a plena capacidad. Y, de esa manera, puedes obtener economías de escala ”.

Más arriba en la pila, es posible optimizar a un nivel superior, donde la potencia del servidor utiliza sombras en la refrigeración. Por ejemplo, el proveedor francés de escala web OVH toma placas Supermicro y personaliza sus servidores, con bastidores especialmente adaptados y sistemas de enfriamiento de agua patentados. Se colocan pequeños bolsillos estancos sobre componentes calientes para conducir el calor y transportarlo.

"Tiene sentido comercial", dijo el director industrial de OVH, Francois Sterin, a DCD. "El objetivo es que nuestro servidor debe ser muy eficiente en cuanto a energía y costo".

OVH tiene alrededor de 400.000 servidores en funcionamiento, y su proceso está tan impulsado por el software como el de Supermicro, dijo Sterin: "Sometemos un servidor a muchas pruebas y pruebas ambientales diferentes. Esto nos permite medir la cantidad de energía que consume el rack. El objetivo es que nuestro servidor debe ser eficiente en cuanto a energía y costo ".

Tiempos interesantes están por llegar

Está claro que la eficiencia energética ahora es lo más importante en todos los niveles de la pila del centro de datos. Los chips de servidor más eficientes se administran de manera más efectiva y se usan de manera más continua, por lo que producen más operaciones por vatio de potencia suministrada.

Al mismo tiempo, esos servidores se están enfriando de manera más inteligente. La refrigeración líquida está lista para reducir la demanda de energía en los sistemas de refrigeración, mientras que los sistemas convencionales funcionan a temperaturas más altas, por lo que se desperdicia menos energía.

Sin embargo, sabemos que la Ley de Moore está llegando al final de su reinado. Las densidades de chips no pueden aumentar indefinidamente y ofrecer la misma tasa de aumento en el rendimiento.

Si hemos logrado que el enfriamiento sea lo más eficiente posible, y la eficiencia del chip comienza a nivelarse, ¿dónde se encontrarán las próximas ganancias de eficiencia? Una posibilidad es el software que se ejecuta en esos procesadores: ¿cuántos ciclos se desperdician debido a un código ineficiente?

Otra posibilidad está en la transmisión de la potencia. Entre el ocho y el 15 por ciento de toda la energía puesta en la red se pierde en los cables de alta tensión de larga distancia que la suministran. Reducir eso requeriría un cambio a una fuente de energía más localizada, como una microrred en el centro de datos.

El sector del centro de datos tiene grandes necesidades y mucho ingenio. La siguiente etapa de la lucha por la eficiencia podría ser aún más interesante.