La historia de la industria de los Data Centers es la de un crecimiento sin precedentes. A medida que el mundo se conectaba, surgían instalaciones por todas partes para dar servicio tanto a las personas como a las empresas.
Cada día nos llega la noticia de una nueva e importante instalación, con envolventes de potencia cada vez más alta, llena de chips más potentes. Y, a pesar de todo esto, la industria ha sido capaz de evitar saltos energéticos significativos -un testimonio de la tremenda innovación y del cambio en el funcionamiento del sector-.
Este artículo apareció en el suplemento Transición Energética. Léalo gratis hoy mismo.
Pero, ¿los buenos tiempos duran?
En 2020, la Universidad de Northwestern, el Laboratorio Nacional Lawrence Berkeley (LBNL) y Koomey Analytics publicaron un estudio pionero sobre el uso global de energía de los Data Centers.
Descubrieron que, entre 2010 y 2018, la computación se disparó nada menos que un 550%. El tráfico del protocolo de Internet (IP) se multiplicó por más de 10 y la capacidad de almacenamiento de los Data Centers se multiplicó aproximadamente por 25.
En ese mismo periodo de tiempo, el uso de energía creció solo un 6%, hasta 203TWh.
Esta asombrosa disparidad es digna de mención: en tiempos de creciente incertidumbre en la red, y con los Data Centers ya en el punto de mira por su impacto en las emisiones de carbono, es difícil imaginar cómo se trataría el sector si hubiera crecido linealmente con la computación.
Las métricas y los análisis erróneos han simplificado durante mucho tiempo la conexión entre la demanda de los Data Centers y la energía, y durante años han predicho un uso de la energía en aumento que saturaría la red. "Una forma rápida de intentar predecir el uso de la energía en los Data Centers es tomar ese uso de la electricidad y escalarlo con otros valores, por lo que se podría escalar con el número de personas que están viendo vídeos en línea, con el aumento de la población o con el tamaño general del mercado desde un punto de vista financiero", dijo a DCD el coautor del documento, el Dr. Arman Shehabi, del LBNL.
"Y se empiezan a encontrar extrapolaciones extrañas porque hay múltiples variables que cambian realmente cada año, como el hecho de que haya más servidores, pero la forma en que se utilizan esos servidores está cambiando. Muchas partes diferentes se están volviendo más eficientes, o el almacenamiento se está volviendo más eficiente, los procesadores están cambiando, los sistemas de refrigeración que se utilizan en los centros de datos han cambiado con el tiempo".
Todo esto tiene que incluirse, dijo Arman Shehabi: "¿Cuál es la capacidad de almacenamiento? ¿Cuánto está aumentando el tráfico IP? ¿Cuántas cargas de trabajo estamos viendo? Hay que tener en cuenta todas estas cosas".
Explicó que algunos enfoques se fijan en la cantidad de datos que se utilizaban para el streaming de vídeo en los primeros años del siglo, y en la cantidad de energía que requería, y luego intentan escalar a la demanda de streaming de hoy. "Pero, ¿aumentó el uso de energía en consecuencia? Por supuesto que no", dijo.
Lo que ocurrió fue una notable hazaña de ingeniería. En el ámbito de los semiconductores, los diseñadores de procesadores como Intel y AMD fueron consiguiendo más y más eficiencia en los procesadores a medida que seguían la Ley de Moore. Se crearon nuevos Data Centers que siguieron las mejores prácticas de refrigeración y diseño. Las antiguas instalaciones se fueron eliminando poco a poco en favor de los Data Centers avanzados construidos por los hiperescaladores. La nube también significó que la utilización de los servidores se ha disparado, dejando menos servidores parados y consumiendo energía de manera innecesaria.
"En 2005, visité un centro de datos en el LBNL", recuerda Shehabi. "Había bastidores de servidores, y luego estos diferentes acondicionadores de aire de la sala de ordenadores que estaban en el suelo, colocados al azar en diferentes lugares. Había todos estos lugares diferentes donde el aire caliente se mezclaba con el aire frío, y estos ventiladores de escritorio en diferentes lugares soplando el aire. Era muy ineficiente. Es como construir una nevera y no poner la puerta. Una vez que te das cuenta de que hay que poner la puerta, la eficiencia aumenta mucho", señaló.
En sus esfuerzos por hacer un seguimiento del uso de la energía en ese momento, descubrió que los Data Centers y las salas de servidores refrigerados utilizaban el doble de energía que la TI. Esto equivale a una enorme efectividad del uso de la energía (PUE) de 3,0, una cifra que ha disminuido sustancialmente, hasta el punto de que hiperescaladores como Google afirman tener una PUE de sólo 1,10.
Un colega, Jonathan Koomey, también estudió la prevalencia de los "servidores zombis", es decir, los servidores que seguían funcionando a pesar de no servir para nada. Descubrió que un enorme 10% de los servidores del mundo podían clasificarse como zombis, ya que simplemente desperdiciaban energía porque nadie los apagaba. "Esta era otra gran oportunidad para aumentar la eficiencia", dijo. Más difíciles de rastrear eran los servidores que sí tenían un uso, pero con una tasa de utilización baja -lo que significa que la mayor parte del cálculo no se utilizaba-, pero esa cifra también ha mejorado con el crecimiento de la nube.
Todo esto es algo que hay que celebrar. Sin el esfuerzo combinado de cientos de miles de trabajadores de centros de datos, TI y semiconductores, el sector no habría podido soportar su crecimiento, ya que la red simplemente no habría podido satisfacer las necesidades del mundo digital.
Pero, como siempre, es la maldición del éxito temprano, mantener el ritmo no está garantizado. "Creo que en el futuro va a ser más difícil, porque esas oportunidades obvias de obtener beneficios no están realmente ahí", dijo Shehabi. "Y va a ser necesario que haya otras formas de tener aumentos de eficiencia de órdenes de magnitud para equilibrar los aumentos de órdenes en los servicios que podemos esperar de la industria".
No hay indicios de que el ritmo de construcción de Data Centers disminuya, sobre todo desde que la pandemia afianzó la necesidad de trabajadores hiperconectados. Mantener ese crecimiento sin que el consumo de energía se descontrole será uno de los grandes retos de nuestro tiempo.
En el ámbito de los chips, ya hay motivos de preocupación. Los semiconductores ya no avanzan tan rápido como antes: La muerte de la Ley de Moore es ya un hecho, pero su desaparición se produjo como un largo y prolongado gemido, no como una explosión repentina. Las mejoras en la densidad de los transistores empezaron a ralentizarse ya en 2010, y el ritmo se ha recuperado gradualmente. Los fabricantes están llegando a los límites físicos de los transistores, y no está claro hasta dónde podrán llegar después de los nodos de proceso de 2-3 nm.
Los diseñadores de chips han respondido con decisión, explorando nuevas vías para mejorar el rendimiento más allá de la densidad de transistores. Pero también han mantenido las mejoras informáticas aumentando la potencia de diseño térmico (TDP) de los procesadores, es decir, ganando más potencia de cálculo al hacer pasar más energía eléctrica por el chip. Pero eso aumenta tanto la demanda de energía del servidor como la necesidad de refrigeración.
Luego está la distribución de los Data Centers. Aunque hay algunas instalaciones antiguas que todavía se aferran, y los ingenieros están encantados de compartir historias sobre las ineficiencias de sus competidores, la realidad es que se han realizado muchas de las mejoras obvias. El PUE medio de los centros de datos ha disminuido, pero está empezando a estabilizarse en el límite del borde. Los estudios difieren sobre cuál es el PUE medio, pero se cree que las instalaciones modernas centradas en la eficiencia (en climas tolerantes) están en torno a 1,2. Aunque se reduzca, pasar de 1,2 a 1,1 no supondrá la misma mejora que pasar de 2,5 a 1,2.
Al mismo tiempo, las condiciones para reducir el PUE son cada vez más difíciles, y no sólo porque los chips se calienten más. Más problemático es que el mundo se está calentando. Este verano, los Data Centers de Google y Oracle en el Reino Unido simplemente dejaron de funcionar en medio de una abrasadora ola de calor. Las instalaciones se construyeron para un mundo anterior al cambio climático que poco a poco tiende a desaparecer. Es de esperar que las futuras instalaciones cuenten con más equipos de refrigeración, que funcionen con mayor regularidad, ya que no se puede confiar en el aire natural del medio ambiente.
Los hiperescaladores también han sido capaces de reducir los residuos con la eficiencia de la escala, construyendo vastas granjas de servidores que pueden compartir equipos de infraestructura. Ahora se dirigen a la periferia, ya sea con Data Centers más pequeños dentro de las ciudades o con microcentros de datos que podrían ser tan pequeños como medio bastidor. Esto supondrá una pérdida de esa escala, pero los proveedores de Edge argumentan que reducirán la energía necesaria para transportar los datos de un lado a otro. La historia del Edge está aún en sus inicios, por lo que es demasiado pronto para decir cuál de las dos opciones superará a la otra.
Ante el creciente escrutinio sobre el uso de la energía y los servidores más recalentados, muchos operadores de Data Centers están empleando el agua.
La refrigeración líquida directa es un objetivo a largo plazo, ya que la absorción del calor por parte del agua puede significar que se necesite mucha menos potencia de refrigeración. Pero eso supone un gran cambio en el hardware del Data Center. Un enfoque a más corto plazo es utilizar la refrigeración evaporativa, que aumenta el consumo de agua.
"Al centrarse en la métrica PUE, la industria ha reaccionado y ha dicho: 'echemos agua'. Pero ahora se está consumiendo mucha más agua, y así se ha tapado un agujero creando otro", afirma Shehabi.
Si se hace bien, el uso del agua podría ayudar a evitar un aumento masivo de la energía, pero tampoco está claro cuántos planes de Data Centers tienen realmente en cuenta el mundo cambiante. EE.UU. se encuentra en medio de una sequía histórica e implacable y, sin embargo, los Data Centers siguen intentando competir por el agua (a menudo, incluso, por la potable) y acceder a reservas de acuíferos no renovables.
En el Reino Unido, la empresa de servicios públicos Thames Water puso en marcha una investigación sobre el agua de los Data Centers en Londres y Slough, alegando que el sector estaba utilizando demasiada en medio de una sequía. Pero esta declaración se produjo mientras la Autoridad del Gran Londres afirmaba que los nuevos proyectos de viviendas en el oeste de la ciudad podrían quedar bloqueados durante más de una década porque los Data Centers han ocupado toda la capacidad eléctrica, lo que pone de manifiesto el delicado equilibrio que tendrá que manejar el sector a medida que las soluciones de energía y refrigeración se vuelvan difíciles de conseguir.
Shehabi mantiene la esperanza, señalando los chips especializados que son más eficientes para ciertas cargas de trabajo, y la maravillosa inventiva de la industria. Pero advierte que el reto es inmenso.
El Congreso de EE.UU. ha dado el pistoletazo de salida oficial al largo proceso burocrático que llevará al equipo de Shehabi a crear un nuevo informe sobre el uso de la energía en los Data Centers. "El sector ha cambiado por completo desde la última vez que lo examinamos, y espero que sea un informe realmente innovador, francamente. Lo que no sé es cómo va a ser la tendencia del uso de la electricidad: si va a ser la misma que hemos visto en el pasado, o si vamos a ver un aumento mayor o tal vez una disminución. No lo sabemos", ha señalado Shehabi.