Durante mucho tiempo, la industria de los centros de datos ha podido despojarse de la responsabilidad por sus emisiones de carbono. A pesar de la naturaleza intensiva en energía de un centro de datos, no es un contaminador tan obvio. Mientras la UE se esfuerza por alcanzar sus objetivos de emisiones netas cero, los discretos polígonos industriales que consumen la misma cantidad de electricidad que Bangladesh están ahora firmemente en su punto de mira.

La Directiva sobre informes de sostenibilidad corporativa (CSRD, por sus siglas en inglés) es solo una de varias leyes que monitorearán el consumo de energía de diversas industrias. El consumo de energía de los centros de datos es una preocupación cada vez mayor; las redes de transmisión de datos representan entre el 1 y el 1,5 por ciento del uso mundial de electricidad y el 1 por ciento de las emisiones de GEI relacionadas con la energía. La demanda de recursos para la investigación de la IA aumentará considerablemente esta cifra.

Una investigación realizada por Jones Lang LaSalle encontró que los centros de datos han aumentado los precios entre un 20 y un 30 por ciento a medida que la oferta lucha por mantenerse al día con la demanda. Las empresas inteligentes están mirando lo escrito en la pared y tratando de optimizar la presencia de su centro de datos hoy.

Los costos del centro de datos provienen principalmente del almacenamiento, los recursos informáticos y el uso de la red. La optimización de cada uno de estos segmentos puede reducir el costo general de la infraestructura backend, liberando presupuesto que podría gastarse mejor en otras áreas de un departamento de TI que ya está limitado. No hay duda de que la legislación obligará a las empresas a ser más eficientes en la forma en que utilizan los centros de datos con el tiempo. Al celebrar este debate ahora, es posible lograr una ventaja competitiva en comparación con las empresas que esperan un cambio en la ley que las impulse a actuar.

Eficiencia de la red

Si bien la Autoridad de Mercados y Competencia del Reino Unido está investigando a AWS y Microsoft por cobrar a los usuarios por mover datos entre proveedores, actualmente los centros de datos cobran por la entrada y exportación de datos. Estos servicios quieren que los usuarios almacenen la mayor cantidad de datos posible en la nube porque fomenta la dependencia del proveedor. Eso significa que las organizaciones deben tener una pila tecnológica que optimice la cantidad de datos que deben exportarse para crear informes relevantes.

Naturalmente, las empresas quieren tener a mano la mayor cantidad de datos posible, por lo que su primera opción es la compresión. Cada solución de monitoreo tiene formas de comprimir la telemetría para minimizar los costos de carga y almacenamiento. Las diferentes formas de compresión tienen ventajas según el tipo de datos que una empresa quiera almacenar y evaluar el método correcto de compresión para una empresa es un tema en sí mismo. En el monitoreo de series de tiempo, la mayoría de las formas de compresión ya tienen más del 90 por ciento de pérdidas en el disco, centrarse en la compresión como una forma de impulsar el ahorro de eficiencia es, para decirlo caritativamente, subóptimo. La compresión de red es mucho menos eficiente que en disco; actualmente se están realizando estudios para explorar opciones para reducir la escala computacional de la transferencia de datos, pero muchas de estas opciones aún se encuentran en etapas experimentales.

Un debate más útil es qué datos necesita la empresa para permitir una retrospección eficaz. Existe la tentación de recopilar tanto como sea posible y ordenarlo después del hecho, sin querer perder datos que podrían resultar útiles. Esta línea de pensamiento oculta los costos de oportunidad de recopilar toda esta información. A 0,01 dólares por GB para ingreso y exportación en AWS; Recopilar y almacenar datos superfluos es en la práctica quemar dinero que podría gastarse mejor en otra parte.

Una carga de trabajo de monitoreo promedio podría consistir en almacenar muestras con una velocidad de ingesta promedio de 1 millón de muestras/s. A esos precios, esta carga de trabajo podría costar 10.000 dólares al mes. Reducir la resolución de estos datos de cinco segundos a un minuto reduciría el coste a 1,6 mil dólares al mes. Si bien este es un ejemplo extremo, ilustra el impacto de pequeños cambios en las operaciones.

Es mejor tener un plan para la retención de datos y los objetivos que respaldan los datos. Esto requiere más preparación entre el equipo de operaciones, el CIO y el CFO. Puede resultar difícil para las partes interesadas internas explicar el valor de menos a sus superiores y aprovecharlo como una oportunidad para alinear a la gerencia y al personal sobre por qué los registros son importantes, pero también qué registros son importantes.

Escalabilidad

La escalabilidad es el peligro oculto de la recopilación y el almacenamiento excesivos de datos. La mayoría de los registros y programas de monitoreo se escalarán hasta cierto punto, después del cual, el consumo de recursos se vuelve exponencial. Algunas soluciones son casi infinitamente escalables, pero incluso ellas tienen sus limitaciones. El uso promedio no debería ocupar la mayor parte de la capacidad. A primera vista parece lógico aprovechar al máximo los recursos presentes, pero esto no deja margen para picos de actividad.

Internet ha introducido una dinámica en la que el ganador se lo lleva todo para la mayoría de los productos. Antes de Internet, la demanda estaba limitada por la geografía o la oferta. En el caso de la propiedad intelectual, como las soluciones de software, la distribución potencial es infinita. Si usted es un desarrollador de SaaS capacitado, pero relativamente desconocido, estar en la portada de Reddit podría generar más clientes de los que una empresa física podría esperar si estuviera en la portada de todos los periódicos hace 25 años.

Los enormes aumentos de popularidad resultantes de la dinámica del mercado en la que el ganador se lo lleva todo significan que todas las empresas deben estar preparadas para aprovechar las oportunidades sin previo aviso. Si una empresa se vuelve viral, las necesidades de datos pueden multiplicarse por diez. El hardware es una cantidad fija que tarda más en adaptarse. Por lo tanto, el software debe mantenerse al día con este aumento de la demanda. Idealmente, solo debería aumentar los recursos necesarios en 10 veces; en la práctica, puede llegar a 100 veces. Sin margen de maniobra y escalabilidad, una gran oportunidad se convierte en una plataforma rota que saldrá perdiendo frente a los competidores que estaban preparados.

Cuellos de botella de hardware

La memoria de acceso aleatorio en los centros de datos está sometida a una presión cada vez mayor en comparación con el almacenamiento estándar. La RAM es mucho más cara que el espacio en disco y tiene menos opciones de escalabilidad. Por lo general, la RAM se limita a opciones que van desde 32 GB a 256 GB en una máquina que ya es grande y costosa. Mientras que el espacio en disco se mide en terabytes o incluso petabytes.

Investigadores de universidades de investigación estadounidenses, en particular Brown y MIT, están experimentando con memoria flash para reducir los requisitos de RAM y las capas de software que optimizan mejor el proceso de toma de decisiones. Estas innovaciones o la adopción de procesadores de arquitectura ARM con núcleos de alto y bajo rendimiento para diferentes tareas podrían ser una ruta hacia un mejor rendimiento en el futuro.

Para aquellos de nosotros que vivimos en el presente, la pregunta es qué se puede hacer para minimizar la utilización de RAM. Nuevamente observe lo que está afectando los procesos y reduzca donde sea posible. Los costos de DRAM aumentan exponencialmente y la capacidad no es lineal. La RAM es un lugar fácil para recuperar costos.

A medida que se ejerce presión sobre los centros de datos para que sean más eficientes, los productos que tienen la eficiencia en su núcleo se volverán más populares debido a los posibles ahorros de costos. Los contratos significan que simplemente cambiar de proveedor no es una opción inmediata para todas las empresas, pero hay conversaciones importantes que los CIO deberían tener internamente en cuanto a la necesidad de las operaciones y la escalabilidad de las operaciones. Minimizar el costo de mantener las luces encendidas en el presente y dejar capacidad para el crecimiento futuro.

En la actualidad, estos ahorros de eficiencia reducen los costos operativos y dejan a una empresa bien preparada para escalar. Con el tiempo, este tipo de optimización de la infraestructura se impondrá potencialmente mediante impuestos punitivos. Existe un incentivo adicional para dar el salto a la optimización antes de ser impulsado por la legislación.