La demanda masiva de contenido y servicios virtualizados está ejerciendo una enorme presión sobre las redes empresariales en todo el mundo, y no se espera que el ritmo disminuya pronto. Más allá del tráfico de red de TI tradicional, se estima que más de 20 mil millones de cosas estarán interconectadas a través de Internet de las cosas (IoT) para 2020. A medida que el crecimiento del tráfico de red continúa sin cesar, los centros de datos y las empresas se enfrentan a la infraestructura, y a una fuerza laboral Estirado hasta los límites.
Para agravar esta explosión de datos, aumentar la complejidad y las presiones de costos crean nuevos desafíos para mantener el rendimiento y la confiabilidad de la red. Como resultado, los administradores de red y los CIO necesitan procesos más eficientes y efectivos para probar las redes de interconexión de centros de datos (DCI) de hoy, desde la capa física hasta la capa de aplicación, para garantizar que la experiencia y la seguridad del usuario final cumplan con los acuerdos de nivel de servicio (SLA).
Un diluvio digital
La demanda masiva de contenido y la proliferación de dispositivos conectados ejercen una enorme presión sobre las redes empresariales, particularmente las interconexiones de centros de datos que son necesarias para una gestión, distribución e intercambio de datos eficientes. Al mismo tiempo, la creciente transformación digital y la automatización de procesos están impulsando un desarrollo de DCI más rápido. El desafío clave es cómo respaldar todos estos avances con la reducción de los presupuestos de TI y menos recursos, mientras se proporciona un acceso rápido y confiable y un rendimiento satisfactorio.
A medida que las empresas se esfuerzan por proporcionar conectividad constante tanto a las operaciones como a los consumidores, la complejidad de la red se ve acelerada por una variedad de aplicaciones, arquitecturas de sistemas y requisitos operativos. Además, las velocidades de DCI ya están cumpliendo o superando los 100G, con la expectativa de que 400G pronto se convertirá en un requisito claro. Sin mencionar que el trabajo ya está teniendo lugar a 600G y 800G. Sin embargo, a medida que aumentan estas velocidades, los administradores de red deben mantener este impulso mientras viven dentro de sus presupuestos y limitaciones de poder.
Las tecnologías de cómputo sin servidor y de borde están aliviando algo de esta presión, empujando el procesamiento fuera del centro de datos hacia el borde de la red o la nube; Sin embargo, estas opciones también crean desafíos adicionales. Se debe considerar equilibrar el ancho de banda a través de la red de extremo a extremo, así como la transmisión y el almacenamiento seguros de datos.
Probar los límites de DCI
Dentro del centro de datos moderno, hay miles de enlaces, cables, transpondedores y conexiones. Si bien todos estos representan puntos potenciales de falla, generalmente reciben mayor atención que los enlaces entrantes que alimentan el centro de datos. Puede sorprender que muchas redes DCI no se prueben de forma rutinaria, a pesar de que hacerlo permite una resolución de problemas más rápida y, lo que es más importante, el poder de la prevención. La prueba y el monitoreo regulares de la red son un factor crítico para cumplir con los SLA y los objetivos internos de rendimiento.
En un esfuerzo por satisfacer la continua demanda de más ancho de banda, algunos gerentes de centros de datos están creando longitudes de onda de 200G utilizando la modulación DP-16QAM, esencialmente duplicando la capacidad de DCI sobre la misma fibra. Si bien esta tecnología ayuda a reducir los cuellos de botella, es importante probar estos nuevos enlaces 200G antes de agregar tráfico en vivo al sistema, ya que puede haber limitaciones en una longitud de onda particular que impiden que alcance una velocidad de transmisión de 200 Gbps. Estas limitaciones no se pueden identificar sin primero probar la tensión de la longitud de onda antes de ponerla en servicio.
Mirando más allá de 200G, ya hemos comenzado la evolución a 400G, lo que representa un cambio de paradigma en todo el ecosistema de redes que proporciona flexibilidad y escalabilidad de formas nuevas y únicas. Sin embargo, la tecnología 400G también presenta desafíos inherentes en las pruebas debido a la complejidad adicional en la capa física. La utilización de la modulación PAM4 aumenta los errores de enlace, por lo que simplemente cuantificar los errores o realizar pruebas basadas en errores "cero" ya no es suficiente. Se requiere una comprensión más sofisticada de la distribución de errores y las estadísticas.
Para mitigar estos desafíos, la corrección de errores de reenvío (FEC) se utiliza en la tecnología 400G para un enlace eficaz sin errores a nivel de paquete. Se requieren nuevas pruebas más perspicaces para validar el margen y diagnosticar problemas a través de la codificación y la modulación PAM4. Las pruebas de red ya no pueden limitarse a una sola de las capas: debe cubrir el enlace desde la capa física hasta Ethernet.
A medida que las redes DCI migran a velocidades más altas, también es importante ejecutar módulos de prueba simultáneos que comparen y evalúen los resultados y el rendimiento de interfaces de programación de aplicaciones abiertas (API) y protocolos, incluidos NETCONF / YANG en bastidores a altas velocidades de 100G, 200G y 400G. Hacerlo puede ayudar a identificar problemas potenciales y solucionar las complicaciones de la infraestructura antes de que surjan, y lo más importante, usar mecanismos de automatización de red que ayuden a reducir la intervención humana en algunos escenarios.
Reducción de estrés
En última instancia, es importante mantener prácticas de prueba sólidas durante todo el ciclo de vida de DCI para optimizar el rendimiento, reducir la latencia, garantizar la fiabilidad y maximizar la utilización de la capacidad. Para evaluar las conexiones DCI, las pruebas de estrés deben realizarse de manera consistente, con el objetivo de identificar posibles problemas antes de que ocurra una falla. Con prácticas regulares de prueba y medición, los equipos de ingeniería pueden identificar problemas que impiden la capacidad de la red para alcanzar la capacidad total, permitiendo que dichos problemas se resuelvan mucho más rápido y con menos dolor de cabeza.
Además, en las redes cada vez más virtualizadas y basadas en la nube, el monitoreo de la red DCI debe automatizarse y virtualizarse para proporcionar la capacidad de monitorear, diagnosticar y resolver anomalías en toda la infraestructura de la red. Sin embargo, las redes de fibra en las que confían también requieren pruebas sólidas de extremo a extremo para mantener el máximo rendimiento.
Conclusión
A medida que las empresas continúan lidiando con el aumento de datos y un aumento exponencial en dispositivos y cosas conectadas, el advenimiento de la tecnología 200G y 400G permite que las redes DCI se mantengan al día con las expectativas cada vez mayores de rendimiento continuo y de alta velocidad. Para que esta evolución sea lo más fluida posible, es vital aplicar prácticas rigurosas de prueba y medición a las redes DCI, asegurando que brinden la eficiencia, flexibilidad y rendimiento necesarios para cumplir con los requisitos de SLA, hoy y mañana.
Por David Zambrano, Gerente de Cuentas Globales del Centro de Datos EMEA en Viavi Solutions