Actualmente tenemos la idea de que todo se está moviendo hacia las nubes públicas de los hiperescaladores, pero la realidad es que se estima que el 75% de las cargas de trabajo continuarán existiendo en nubes privadas, es decir un data center implementado en nuestras instalaciones o en las de un proveedor de servicios. En una u otra ubicación, las principales motivaciones para ello son y seguirán siendo la seguridad, el desempeño, el cumplimiento de regulaciones y los costes, mayoritariamente los variables. Estos data centers deben ofrecer la misma agilidad y disponibilidad que proporciona la nuble pública tanto a clientes internos como externos.

Para conseguirlo es necesario migrar a un modelo de data center llamado Activo-Activo, el cual comúnmente está asociado a arquitecturas de red complejas y también a una dificultad en su operación. Esa complejidad se reduce al máximo gracias a la automatización y la virtualización de la red. Ambas tecnologías ayudan a crear una arquitectura de ‘fabric’ con la que dar movilidad a las cargas de trabajo, dotar de alta disponibilidad a las aplicaciones y mejorar la experiencia del usuario para proporcionar servicios tan fáciles y ágiles como los que ofrecen las nubes públicas.

La situación de los data centers: topología y carencias

El networking en el data center ha evolucionado en las dos últimas décadas impulsado por la tendencia hacia aplicaciones virtualizadas y o en el cloud. Los equipos de DevOps necesitan que las máquinas virtuales o los contenedores de sus aplicaciones se muevan a cualquier parte de la red, atravesando incluso diferentes data centers.

Los data centers sirven para habilitar las aplicaciones de software que soportan el negocio. Sus elementos principales son los servidores, el almacenamiento y la red. Las aplicaciones necesitan servidores para el cómputo, servicios de almacenamiento para los datos y redes para que se conecten los usuarios.

Los data center actuales siguen la topología clásica de tres capas (Acceso, Distribución y Core), la cual responde adecuadamente para tráfico Norte-Sur (esto es accediendo a los servidores desde el exterior), pero, desafortunadamente, introduce latencias variables, posibilidades de bucles de Spanning tree y no ofrece las capacidades de extender dominios a otros data centers. Además, el diseño actual de las aplicaciones requiere que se comuniquen con diferentes servidores dentro del mismo data center creando un tráfico Este-Oeste en el que esta topología tampoco responde adecuadamente.

¿Cómo lograr entonces una alta disponibilidad y buen desempeño en nuestros data centers?

Esta pregunta se responde, en buena parte, teniendo en cuenta en qué centran sus esfuerzos los fabricantes de networking de data center actualmente para dotarlos de alta disponibilidad y buen rendimiento:

  • Data Centers basados en diseños Spine & Leaf con switches de gran desempeño.
  • Una capa de red llamada Underlay basada en protocolos de capa 3 que ofrece resiliencia y balanceo de cargas.
  • Una capa de red llamada Overlay para ofrecer servicios adicionales capa 2 y 3 de manera ágil.
  • Automatización.
  • Seguridad basada en microsegmentación.
  • Telemetría y analíticas.

A las arquitecturas Spine & Leaf se les llama comúnmente ‘fabrics’ debido a la gran cantidad de enlaces de interconexión entre los diferentes dispositivos. Múltiples switches leafs se conectan de forma redundante a los switches spines con la suficiente capacidad para crear una arquitectura non-blocking. Como resultado, cualquier leaf puede conectarse de manera confiable con cualquier otro leaf con un solo salto y con una latencia predecible, sin preocuparse por temas de congestión o de pérdida de paquetes. Esto ofrece una gran capacidad para el tráfico Este-Oeste y elimina la necesidad de aplicar técnicas de ingeniería de tráfico dentro del ‘fabric’.

La simplicidad de esta arquitectura permite que se pueda crear una red Underlay usando protocolos de capa 3 simples, escalables y resilientes como BGP, sobre la cual se puede construir una red virtualizada u Overlay en donde las conexiones entre endpoints se pueden definir por software sin considerar la topología o la capacidad de la red que está por debajo. Estas conexiones virtuales se crean al encapsular y tunelizar el tráfico por el ‘fabric’ usando protocolos como VxLAN, dando como resultado la capacidad de emular tanto conexiones de capa 2 como de capa 3.

La automatización en los nuevos modelos de red para el CPD

La automatización de la red es una parte fundamental en estos nuevos modelos de red de data center y consiste en utilizar software para automatizar las tareas necesarias con las que provisionar (día 0) y gestionar servicios de red (día 1 y día 2). Mediante ella se pueden alcanzar objetivos críticos:

  • Incrementar la agilidad para entregar servicios rápidamente tanto a clientes internos como externos.
  • Reducir el error humano e incrementar la disponibilidad de las aplicaciones.
  • Mejorar la seguridad en la implementación de políticas.
  • Liberar al personal técnico de tantas tareas repetitivas caja por caja.

SDN: La evolución de la automatización de red en los data centers

La SDN (Software Defined Network) es el resultado de toda esta evolución. Permite que el equipo de redes pueda crear una red virtualizada que ofrezca una automatización tal que solo se requiera declarar la ‘intención’ para que el despliegue de los servicios de red sea tal cual como el de las clouds, con la confianza de que las políticas o servicios son implementados de una manera consistente a lo largo de todos los switches.

¿Cuándo migrar a estas nuevas tecnologías?

Conocida la teoría, ahora es el momento de aplicarla. Apunta estos escenarios:

  • Cuando necesito una operación y gestión unificada de data centers.
  • Cuando tengo data centers distribuidos geográficamente.
  • Cuando tengo que realizar una microsegmentación y securización de mi red.
  • Cuando requiero programar y automatizar las tareas.
  • Cuando necesito migrar a puertos 10G/25G o 40G/100G

Como vemos, la migración del networking a las nuevas tecnologías definidas por software que hemos comentado es la clave para conseguir la flexibilidad y la movilidad que requieren las cargas de trabajo actuales de manera que una nube privada no tenga nada que envidiar a una pública. Sí, hay vida más allá del cloud público.