Una vez que comenzó a ganar terreno, la nube se presentó como una panacea para las empresas que buscaban reducir sus costos de TI.

Para muchos, apostar por la nube significaba que los costos de capital de los centros de datos podían eliminarse y cerrar y vender la costosa infraestructura heredada.

Explore las páginas de DCD y la mayoría de nuestras historias empresariales son empresas que migran en masa a la nube pública como parte de una estrategia de "nube primero/nativo de la nube/solo nube".

Pero los titulares recientes sugieren que las empresas pueden estar retirándose de la nube y 'repatriando' datos, cargas de trabajo y aplicaciones a instalaciones locales o de colocación.

¿Las empresas realmente se están enfriando en la nube, o es esta exageración de los proveedores de hardware y proveedores de servicios que buscan sacar provecho?

Repatriación en la nube: ¿Es real?

¿Sigue siendo cierta la promesa de la nube? En general, sí. Las empresas de todas las formas y tamaños confían en la infraestructura de nube pública para una variedad de cargas de trabajo de misión crítica.

Sin embargo, la idea de apostar por 'solo en la nube' y abandonar las instalaciones locales y/o de colocación se está desvaneciendo en lugar de un enfoque más híbrido de 'nube y'.

La mayoría de los proveedores de servicios y colocación con los que DCD habló para este artículo dijeron que la repatriación estaba ocurriendo, aunque en diversos grados.

La firma de analistas de TI IDC nos dijo que sus encuestas muestran que la repatriación es una tendencia constante "esencialmente tan pronto como la nube pública se generalizó", con alrededor del 70 al 80 por ciento de las empresas repatriando al menos algunos datos de la nube pública cada año.

“El enfoque de nube primero y solo nube sigue vigente, pero creo que se está convirtiendo en un enfoque menos frecuente”, dice Natalya Yezhkova, vicepresidenta de investigación de la práctica de infraestructura empresarial de IDC. “Algunas organizaciones tienen este enfoque solo en la nube, lo cual está bien si es una empresa pequeña. Si eres una startup y no tienes ningún profesional de TI en tu equipo, puede ser una gran solución”.

Si bien puede ser común mover algunas cargas de trabajo hacia atrás, es importante tener en cuenta que una retirada total de la nube es increíblemente rara.

“Lo que vemos ahora es un mayor número de empresas que están pensando más en un enfoque basado en la nube”, agrega Yezhkova.

“Piensan en la nube pública como un elemento esencial de la estrategia de TI, pero no necesitan poner todos los huevos en una canasta y luego sufrir cuando algo sucede. En cambio, tienen un enfoque más equilibrado; vea las ventajas y desventajas de tener cargas de trabajo en la nube pública frente a tener cargas de trabajo ejecutándose en entornos dedicados”.

“Lo estamos viendo, es real. Pero realmente estamos viendo un futuro que es híbrido”, agrega el CTO de DataBank, Vlad Friedman. “Lo que realmente estamos viendo es que las personas están pensando de manera más inteligente sobre cómo colocar sus cargas de trabajo”.

¿Quién está repatriando datos?

Si bien cualquier empresa puede recuperar datos de la nube, la mayoría de las empresas con las que DCD habló dijeron que las empresas que realizaron migraciones masivas a la nube sin suficiente preparación, y las nuevas empresas nativas de la nube que habían alcanzado cierta escala eran las candidatas más probables para la repatriación.

Security guards data center
– DCD/Dot McHugh

Dropbox extrajo cantidades significativas de datos de Amazon Web Services (AWS) entre 2013 y 2016 . Según una entrevista de 2021 con DCD, la decisión de permanecer en las instalaciones, conocida como 'Magic Pocket', resultó significativamente más barata y le dio a Dropbox más control sobre los datos que alojaba la empresa.

Sin embargo, la empresa todavía utiliza AWS cuando es necesario. Más recientemente, la empresa web 37signals, que ejecuta la plataforma de gestión de proyectos Basecamp y el servicio de correo electrónico por suscripción Hey, anunció que los dos servicios estaban migrando de AWS y Google Cloud.

"Hemos visto todo lo que la nube tiene para ofrecer y probamos la mayor parte", dijo el CTO y cofundador David Heinemeier Hansson en una publicación de blog. “Finalmente es hora de concluir: alquilar computadoras es (en su mayoría) un mal negocio para empresas medianas como la nuestra con un crecimiento estable. Los ahorros prometidos en complejidad reducida nunca se materializaron. Así que estamos haciendo nuestros planes para irnos".

37Signals no respondió a la solicitud de entrevista de DCD , pero en publicaciones posteriores, la compañía dijo que gastó más de $ 3 millones en la nube en 2022 y que ahorraría unos $ 7 millones en cinco años al cambiar al hardware de Dell. – con un valor aproximado de $ 600,000 – ubicado en dos instalaciones de colocación en asociación con Deft, quien administrará la instalación.

"Cualquier negocio SaaS de tamaño mediano y superior con cargas de trabajo estables que no comparan su factura de alquiler de servidores en la nube con la compra de sus propias cajas está cometiendo una mala práctica financiera en este momento", dijo Hansson. La migración está en marcha y se espera que se complete este año.

Cierta repatriación es como 37Signals; startups nativas de la nube que han alcanzado una escala en la que puede ser más económico cambiarse a las instalaciones. Otra parte de la imagen de repatriación son las empresas que pueden haber realizado un 'lift and shift' completo de su patrimonio de TI y luego se dieron cuenta de que no todo puede ser adecuado para la nube, especialmente si no se ha refactorizado y modernizado.

Para las empresas que tienen una gran presencia local/colo, muchas cargas de trabajo nuevas pueden comenzar en la nube durante el desarrollo y mientras aumentan para beneficiarse de la velocidad y la flexibilidad que ofrece la nube.

Pero después de un cierto nivel de madurez o umbral de cumplimiento, o tan pronto como TI descubra que existe la carga de trabajo en algunos casos, las aplicaciones deberán llevarse a casa.

El CTO de DataBank, Friedman, señala que ha visto a varios proveedores de servicios repatriarse una vez que alcanzan una cierta escala, y están retrocediendo aplicaciones de estado estable, computacional o de E/S intensivas.

“Están pensando en una arquitectura híbrida que les permita lograr ahorros. Pero no creo que sea un movimiento de juego puro volver a colo; se trata de mover las cargas de trabajo correctas de vuelta a colo. Porque 'colo' o 'nube' no es el resultado deseado; es eficiencia, es rendimiento, es menor latencia”.

La planificación es importante: las empresas que solo buscan hacer un cambio directo y cambiar a la nube podrían ver aumentar los costos y sufrir el rendimiento y provocar arrepentimiento y repatriación.

“Trabajé anteriormente con un gran integrador de sistemas en la región nórdica que se había propuesto trasladar el 80% de sus cargas de trabajo a la nube pública. Después de tres años de arduos esfuerzos, solo avanzaron un 10 por ciento antes de abortar el proyecto en su totalidad y volver a las instalaciones”, dice Tom Christensen, asesor de tecnología global y analista ejecutivo de Hitachi Vantara.

¿Por qué las empresas están recuperando las cargas de trabajo?

Yezhkova de IDC nos dijo que la seguridad sigue siendo un factor importante en la repatriación, aunque ha disminuido en los últimos años. Uno de los factores más importantes es simplemente el costo: las cargas de trabajo incorrectas en las configuraciones incorrectas pueden costar más en la nube que en las instalaciones.

“La nube pública puede ser más barata, pero no siempre”, dice Yezhkova. “Las tarifas de entrada y salida, las tarifas de transferencia de datos, se suman. Y a medida que crece la carga de trabajo, las empresas pueden darse cuenta de que en realidad es más barato ejecutar estas cargas de trabajo en entornos locales”.

Un informe de 2021 de Andreessen Horowitz señaló que la repatriación de la nube podría generar una reducción del 50 por ciento en el gasto en la nube, pero señala que es una "decisión importante" comenzar a mover las cargas de trabajo fuera de la nube.

“Si está operando a escala, el costo de la nube puede al menos duplicar su factura de infraestructura”, dice el informe. “Estás loco si no empiezas en la nube; estás loco si te quedas ahí”.

Del mismo modo, los costos de la nube pueden ser mucho más impredecibles que los equivalentes en las instalaciones, especialmente si se configuran incorrectamente sin controles de gastos.

Para implementaciones complejas, el costo adicional de un proveedor de servicios para administrar el entorno de la nube también puede sumarse.

Las demandas de soberanía de datos pueden ser un factor determinante en algunos mercados. Los países con leyes de residencia de datos más estrictas pueden obligar a las empresas a mantener los datos dentro de sus propias fronteras y, en algunos casos, fuera del alcance de ciertas empresas bajo el control de gobiernos hambrientos de datos. Muchos proveedores de nube buscan ofrecer soluciones de 'nube soberana' que entreguen los controles a un socio local de confianza para superar algunos de estos problemas.

La latencia, el rendimiento y la administración pueden ser un factor determinante: es posible que las aplicaciones sensibles a la latencia superior no cumplan con las expectativas de rendimiento en entornos de nube pública en la misma medida en que lo harían en las instalaciones o en sitios de colocación.

"Estamos viendo estas empresas que pueden haber hecho un cambio y pensaron que esto habría sido mejor", dice Friedman de DataBank, "pero la aplicación en realidad habría funcionado mejor en ese entorno privado desde el punto de vista del costo y la latencia".

Sume además el hecho de que las empresas inevitablemente necesitan tantas (si no más) personas para administrar entornos cada vez más complejos y entrelazados como lo hicieron en las instalaciones, y algunas empresas pueden preferir mantener las cosas internamente.

La firma de software de SEO Ahrefs publicó recientemente sus propios cálculos y dijo que había ahorrado alrededor de $ 400 millones en dos años al no tener un enfoque solo en la nube.

La empresa calculó los costos de tener su hardware y cargas de trabajo equivalentes completamente dentro de la región de Singapur de AWS durante los últimos dos años y estima que el costo sería de $440 millones, en comparación con los $40 millones que realmente pagó por 850 servidores locales durante ese tiempo.

"Ahrefs no sería rentable, ni siquiera existiría, si nuestros productos estuvieran 100 por ciento en AWS", dijo el líder de operaciones del centro de datos de Ahref, Efim Mirochnik, aunque los críticos han señalado que sus estimaciones de costos de la nube estaban muy suboptimizadas y que un más honesto la evaluación habría mostrado un abismo más pequeño en los costos.

¿Qué cargas de trabajo deberían y no deberían estar en la nube?

Las cargas de trabajo que tienen más sentido para sentarse en la nube versus en las instalaciones variarán según una serie de factores que incluyen la aplicación, sus usuarios, la geografía, entre otras. Una misma carga de trabajo puede tener diferentes respuestas en diferentes momentos.

“Una carga de trabajo es como algo vivo y los requisitos pueden cambiar”, dice Yezhkova de IDC, quien dice que el único “punto de inflexión” definible para cuando una carga de trabajo debe ser repatriada es cuando el rendimiento podría verse afectado si no se toca.

Cuando se trata de la soberanía de los datos, la interdependencia de las aplicaciones puede significar que es más fácil acercar todas las cargas de trabajo a las cargas de trabajo más estrictamente reguladas, en lugar de cambiar constantemente la información entre las instalaciones y la nube.

“Si una nueva carga de trabajo solo se puede ejecutar en entornos dedicados debido a los requisitos reglamentarios, ¿qué significa para otras cargas de trabajo?” dice Yezhkova. “Podría tener este efecto de bola de nieve en otras cargas de trabajo”.

Las cargas de trabajo que ven datos moviéndose constantemente de un lado a otro dentro y fuera de las nubes entre aplicaciones podrían ser candidatas para moverse como una forma de evitar tarifas de entrada/salida; sacar datos de la nube es más costoso que ponerlos allí.

“Las empresas deben realizar análisis de costos de manera regular”, agrega Yezhkova. “No debe hacerse una vez y todo el mundo se olvida, debe ser un ejercicio regular”.

Las cargas de trabajo con alta variabilidad son compañeros naturales para sentarse en la nube. Los datos de respaldo que son bastante estáticos por naturaleza también podrían ser buenas opciones para mantener en la nube.

Los casos de uso de Edge sensibles a la latencia son otros en los que la nube pública podría no tener tanto sentido: el consultor principal de Ensono, Simon Ratcliffe, señala que la fabricación a menudo necesita computación en el sitio que puede no ser adecuada para la nube, aunque la introducción de ubicaciones Edge como AWS Local y las zonas de longitud de onda pueden aliviar los problemas allí.

El rendimiento del hardware también puede ser un factor determinante. Jake Madders, director de Hyve Managed Hosting, le dijo a DCD que recientemente trató con un cliente financiero que necesitaba una velocidad de reloj particularmente alta que no estaba disponible a través de instancias de nube pública y requería un servidor personalizado distribuido en alrededor de 20 ubicaciones en todo el mundo.

¿Y qué pasa con HPC y mainframes? La mayoría de los proveedores de la nube ahora ofrecen servicios de modernización de mainframe destinados a sacar esas cargas de trabajo fuera de las instalaciones, mientras que muchos están haciendo caminos importantes hacia la HPC basada en la nube.

La mayoría de las personas con las que hablamos para este artículo están de acuerdo en que es poco probable que los mainframes se muevan rápidamente en la nube, simplemente debido a su velocidad, costo y confiabilidad, junto con la dificultad de migrar las cargas de trabajo más complejas y heredadas.

Ratcliffe de Ensono incluso señala que las empresas con capacidad sobrante en sus mainframes existentes bien pueden descubrir que las cargas de trabajo de Linux se pueden ejecutar de manera más económica y eficiente en algo como un IBM Z-System que en una instancia en la nube.

“Uno de nuestros principales clientes es Next”, dice. “Todo el directorio de Next se ejecuta en un mainframe muy moderno, no tienen intención de cambiarlo.

“Sin embargo, todo lo que sucede a su alrededor que lo conecta con la experiencia del usuario está escrito en la nube pública”.

En HPC, hay argumentos a favor y en contra en ambos lados.

“Recientemente creamos dos escenarios informáticos de alto rendimiento para dos clientes: uno en el centro de datos y el equivalente dentro de Azure”, dice Ratcliffe. “Uno decidió mantenerlo en las instalaciones, debido a la forma en que recopilan y alimentan los datos. Para el otro cliente, Azure resultó ser la respuesta correcta para ellos, nuevamente impulsado por la forma en que recopilan sus datos. “

La primera organización recopila todos sus datos en un solo lugar y está justo al lado de su centro de datos y eso funciona para ellos. La segunda compañía está en todo el mundo y siempre se conecta a través de Internet de todos modos. La respuesta es tanto porque están impulsados ​​por diferentes casos de uso como por diferentes comportamientos”.

Madders de Hyve agrega que su empresa realizó un análisis de costos similar para una subsidiaria de BP que buscaba una implementación de tipo HPC que buscaba datos de procesamiento sísmico para la excavación de pozos. Las empresas miraron dos opciones; uno alquilaba alrededor de cinco racks dentro de un entorno Hyve en una instalación de Equinix, o en la nube y funcionando. Por lo general, el sistema estaría ejecutando una semana de cálculos de procesamiento intensivo hasta el siguiente lote aproximadamente un mes después.

"Descubrimos que con un entorno de nube pública, el costo de computación requerido para hacer el cálculo de una semana cuesta lo mismo que comprar el kit y luego revenderlo después del mes".

On-premise puede ofrecer precios 'como servicio'

La colocación parece ser un destino mucho más común para las cargas de trabajo recuperadas. Muchas empresas simplemente no estarán interesadas en la inversión y el esfuerzo necesarios para levantar un centro de datos local completamente nuevo.

Pero incluso si las empresas están buscando cols para ahorrar costos, aún deben ser conscientes de la inversión requerida en personas, hardware, redes y cualquier otro equipo que se necesitará para la infraestructura física.

Sin embargo, los costos iniciales no tienen que ser tan altos como antes. Muchas empresas ahora ofrecen hardware de TI en un modelo 'como servicio', lo que reduce los costos de capital y convierte el hardware físico de TI en un costo de operación. Las empresas incluyen HPE con su oferta de Greenlake, Dell con Apex, Pure Storage con Evergreen y NetApp con Keystone.

Y para aquellos que exigen centros de datos empresariales en las instalaciones, las empresas también pueden comenzar a esperar modelos de precios similares. El director de investigación de IDC, Sean Graham, nos dijo recientemente que algunos proveedores están haciendo que sus módulos de centros de datos estén disponibles en un modelo como servicio, esencialmente haciendo que los contenedores estén disponibles como un costo operativo recurrente.

Llevar la nube a las instalaciones

Muchas empresas buscan implementaciones de nube híbrida que combinen alguna infraestructura local con ciertas cargas de trabajo en la nube. Otros están siguiendo un enfoque de nube privada, que ofrece algunos de los beneficios de la infraestructura virtualizada en un entorno de un solo inquilino, ya sea en las instalaciones o en un colo.

Pero, ¿qué pasa con las empresas que quieren la nube real en las instalaciones? Si bien los proveedores de la nube se resistirían a admitirlo, saben que nunca tendrán todas las cargas de trabajo del mundo en sus entornos. Prueba de ello es su creciente oferta en las instalaciones.

Los gustos de AWS Outpost, Azure Stack, Google Anthos y Oracle's Cloud@ Customer & Dedicated Regions ofrecen hardware en las instalaciones vinculado a los servicios en la nube de sus respectivas empresas y permiten que los entornos se administren a través de una consola.

Friedman de DataBank agrega que su empresa está experimentando una serie de estas redespliegues de 'nube en las instalaciones'.

“Son para cuando el cliente ha comprado el ecosistema y las API, y no quiere cambiar su código, pero quiere eficiencia o colocar cargas de trabajo tangenciales a su base de datos y análisis de IA. Es realmente un juego de eliminación de latencia”, dice.

“Desde la perspectiva del usuario final, obtienen la misma experiencia”, agrega Yezhkova de IDC, “pero las cargas de trabajo se ejecutan en entornos locales. Los proveedores de la nube se dan cuenta de que es inevitable y si quieren ser parte de este juego, deben presentar este tipo de ofertas.

“Anteriormente, traer TI de vuelta a las instalaciones sería un gran problema, sería una nueva inversión de capital. Ahora, con este tipo de servicios y las plataformas en la nube moviéndose a las instalaciones, esa transición es cada vez más fácil”.

La repatriación es un proyecto tan grande como la migración original

Recuperar datos de la nube no es una solución fácil ni rápida. Todas las personas con las que DCD habló para este artículo reconocieron que debería verse como un proyecto independiente con el mismo tipo de supervisión y seriedad que los proyectos de migración que podrían haber puesto datos y cargas de trabajo en la nube en primer lugar.

Si bien la transferencia de datos real a través del cable solo puede demorar horas si todo está configurado y listo, la preparación para la acumulación puede demorar meses.

La prevención puede ser mejor que la cura y, cuando sea posible, las empresas primero deben analizar por qué una aplicación tiene problemas y si se puede resolver sin moverla.

Luc van Donkersgoed, ingeniero principal del servicio postal holandés PostNL, publicó recientemente en Twitter cómo un error de una sola línea le costó a la empresa 2000 dólares en gastos de AWS debido al hecho de que realizó más llamadas a la API de lo esperado.

Si bien algunas aplicaciones pueden ser un poco más fáciles de recuperar si se refactorizaron para la nube y se colocaron en contenedores, las empresas aún deben ser conscientes de la interdependencia con otras aplicaciones y bases de datos, especialmente si las aplicaciones que se reclaman están vinculadas a cargas de trabajo específicas de la plataforma.

Un conjunto de máquinas virtuales aisladas en un sistema en contenedores será mucho más fácil de llevar a casa que una gran aplicación vinculada a varios servicios de AWS o solo de Azure y conectada a aplicaciones sin servidor sensibles a la latencia, por ejemplo.

“Si realmente no hay otra alternativa [que la repatriación], mírelo como si desde el punto de vista estuviera planeando iniciar una aplicación desde cero en términos de infraestructura”, dice Adrian Moir, consultor sénior de administración de productos y estratega de tecnología en Quest Software. “Asegúrese de tener todo en su lugar en términos de cómputo, almacenamiento, redes, datos, protección, seguridad, todo listo antes de mover el conjunto de datos.

“Es casi como empezar desde cero, pero con un montón de datos que tienes que manejar de inmediato. Va a ser un proceso intensivo, y no va a suceder de la noche a la mañana. Va a ser una de esas cosas que necesitan ser pensadas cuidadosamente”.