La tecnología está integrada en nuestras vidas tan a fondo; ha mejorado la calidad de vida en todo el mundo. Se predice que las tecnologías de información y comunicación crecerán exponencialmente, pero hay un precio por este avance. Se espera que las TIC sigan consumiendo un porcentaje significativo y creciente de la energía mundial.

En consecuencia, existe una gran cobertura mediática que examina el estado de los centros de datos del mundo y cuánta energía consumen.

Un buen comienzo

Lo alentador es que se han tomado medidas importantes para reducir la tasa de crecimiento en el uso de energía en los centros de datos. El consumo de energía del centro de datos generalmente admite la potencia informática y los requisitos de enfriamiento de su centro de datos. Ingrese a la Red Verde, ahora absorbida por ITI, cuyo objetivo era impulsar prácticas más eficientes energéticamente, y así desarrolló el concepto de PUE (Eficiencia de uso de energía): relación de potencia a uso.

El Open Compute Project (OCP), un grupo de hiperescaladores del mundo, está trabajando para acercar la informática a un PUE de uno, que es el mejor resultado posible para una relación de potencia a uso. Sin embargo, la informática de punta está aumentando en adopción, y su ubicuidad sin duda afectará el uso de energía del centro de datos, ya que no se adapta a los centros de datos de hiperescala.

También es costoso lograr la perfección. ¿Qué se necesitará para lograr un PUE de uno? Algunas soluciones incluyen centros de datos ubicados en países fríos donde el calor que generan contribuye al calentamiento de los edificios y al diseño de servidores que pueden funcionar a altas temperaturas ambientales, en un esfuerzo por eliminar las unidades de aire acondicionado. Aún así, esta no es una solución para los procesadores calientes, muy rápidos y de un solo hilo que consumen grandes cantidades de energía y generan una gran cantidad de calor.

Hemos recibido ayuda durante este proceso. La Ley de Moore originalmente decía que cada año veríamos una duplicación de los transistores en el mismo espacio. La ley fue luego revisada para duplicarse cada dos años. Lo hemos seguido como una guía para producir CPU cada vez más rápidas que no aumentan el consumo de energía. Combine eso con un enfoque en los últimos años en núcleos, controladores de memoria y aceleradores que permiten hilos individuales cada vez más rápidos para la mayoría de las tareas de cómputo.

Sin embargo, la Ley de Moore estará llegando a su fin alrededor del año 2023. Ya estamos viendo los impactos a medida que Intel lucha con su planta de fabricación de 10 nm, llevándolos más de dos años desde el último cambio importante en la densidad del transistor.

Hasta hace unos años, estas CPU cada vez más rápidas estaban dedicadas a un solo servicio. Como esa CPU fue más rápida de lo que el servicio requería, a menudo la CPU y la memoria quedaron subutilizadas. La realización de la reducción potencial en los costos ha ayudado a marcar el aumento significativo en la virtualización y los contenedores. Sin embargo, ejecutar esos hipervisores también consume potencia de procesamiento, ya que es una sobrecarga. La virtualización no es nada nuevo, estuvo disponible en los mainframes de IBM hace muchos años, solo que su adopción en servidores x86 es relativamente nueva.

Como siempre, uno de los grandes éxitos de un centro de datos es administrar sus recursos. Asegurarse de que haya suficiente para entregar, pero no demasiado dinero desperdiciado. Necesitamos preguntarnos continuamente, ¿dónde está el cuello de botella? ¿Es el cómputo puro real el cuello de botella? ¿Se está ralentizando por el almacenamiento o el controlador de memoria o incluso la red? Se reconoce que descargar algo del trabajo de E / S que hace la CPU es algo bueno, ya que permite que la CPU se concentre en la informática.

La latencia es ciertamente un problema. La latencia es una de las cosas que impulsan la adopción de la informática de punta, al igual que la inteligencia artificial y el aprendizaje automático, que se ven afectados por las latencias más pequeñas. Sin embargo, ¿puede decir si su página web se entregó en 2 ms o 3 ms? ¿Estamos gastando una gran cantidad de energía y poder corporativo / personal para lograr una latencia efectiva y perfecta cuando no se requiere necesariamente?

¿Por qué los servidores suelen incluir puertos VGA y USB en el centro de datos? Están ahí para las personas, y porque el BIOS los espera, pero ¿cuándo fue la última vez que una persona los usó en su servidor?

Hemos tenido mucha evolución, ¿tal vez es hora de una revolución?

Tiempo para repensar

Todos esos componentes innecesarios deben eliminarse y el alto rendimiento debe convertirse en la prioridad. Si uno tiene una serie de sistemas que funcionan a menor potencia, con un mayor ancho de banda para la red, el almacenamiento y la memoria, proporcionarán un rendimiento mucho mayor, en paralelo, que las arquitecturas de servidor tradicionales. El servidor debe ser más inteligente en lugar de utilizar la fuerza contundente de un procesador más rápido que está atascado en la era de la informática personal de la década de 1980.

Incrementar la velocidad del reloj sin duda le dará más rendimiento, pero ¿a qué costo en vatios consumidos? No es lineal en absoluto, es logarítmico. Una CPU funcionando con menos GHz en general significa menos vatios y, por lo tanto, menos calor. Eso se traduce en más servidores en un espacio pequeño que requiere menos energía para el aire acondicionado. Sin embargo, ahora puede obtener más servidores en el mismo espacio, por lo que su subproceso individual puede no ser tan rápido, pero su rendimiento general para un espacio determinado y el consumo de energía es mayor.

Es posible que PUE esté midiendo algo incorrecto. En cambio, deberíamos mirar hacia cuánto trabajo se puede entregar por kilovatio-hora; Esa es una verdadera medida de eficiencia. Esto respaldaría los cambios necesarios para que un centro de datos pueda comenzar a abordar lo que se necesita para reducir su consumo de energía.

Un cambio en la arquitectura, combinado con un cambio a procesadores de baja potencia permitirá un cambio masivo y revolucionario en los niveles de consumo de energía en el centro de datos moderno.


Por Tony Craythorne, CEO de Bamboo Systems