Cada vez más aspectos del negocio dependen de la red, especialmente porque la transformación digital impulsa una "nueva normalidad" para las operaciones virtuales y remotas. Esta nueva normalidad incluye conectividad 24x7x365 cada vez mayor, ancho de banda con latencia y jitter muy bajos, y una aceleración de las tendencias en torno a las aplicaciones de traer sus propios dispositivos (BYOD), software como servicio (SaaS), trabajo remoto ( especialmente desde el brote de Covid-19) y la sombra de TI. Todo esto significa que el tiempo de inactividad de las aplicaciones o la red es más caro que nunca, y garantizar un acceso constante a las aplicaciones de misión crítica y una buena experiencia del usuario final es esencial para la lealtad del cliente y la productividad de los empleados. Con ese fin, las empresas deben implementar una estrategia para garantizar la supervisión del rendimiento de las aplicaciones con reconocimiento de red.

Sin embargo, garantizar este seguimiento es cada vez más complicado. Los centros de datos continúan su tendencia de consolidación, pero el tráfico del centro de datos sigue creciendo, volviéndose más denso y complejo, gracias a una mayor virtualización y enlaces de mayor ancho de banda. Mientras tanto, la pandemia ha acelerado la transformación digital. Como resultado, más empresas se están distribuyendo, con una infraestructura híbrida que abarca sucursales o sitios remotos, centros de datos y múltiples nubes. De hecho, existe una creciente migración de aplicaciones empresariales a la nube, para acceder a ellas a través de la Internet pública desde cualquier lugar. Esta combinación de centros de datos consolidados y aplicaciones y servicios distribuidos, alojados en la nube pública y a los que acceden usuarios remotos en oficinas en casa y sucursales, es el nuevo y complejo entorno que TI necesita administrar.

Los silos no lo cortarán

En esta nueva normalidad, un enfoque en silos para el monitoreo no es suficiente: solo la visibilidad completa de la red brinda, la información y la claridad necesarias para las operaciones de TI. Los mecanismos modernos de observación y visibilidad de la red, como Network Performance Monitoring (NPM) y Network Packet Brokering (NPB), juegan un papel clave en esto. La instrumentación adecuada para la visibilidad del tráfico norte-sur y este-oeste puede incluir (pero no se limita a) taps físicos y virtuales, intermediarios de paquetes, captura de paquetes, generación de flujo y motores de análisis.

Una tendencia clave es que la consolidación del centro de datos y la migración a la nube están sucediendo en paralelo. Por lo tanto, los equipos de aplicaciones a menudo se sienten desconcertados por la dificultad que enfrentan cuando intentan levantar y cambiar o reestructurar los procesos de las aplicaciones comerciales. A menudo, esto se debe a que no tienen en cuenta que cuando las aplicaciones se trasladan a la nube, es fundamental comprender la infraestructura y las dependencias de la red para poder aprovisionar un rendimiento y una seguridad equivalentes en la nube. Además, se requiere una línea de base en días pico y normal para comparar el rendimiento de la aplicación y la red. Esta línea de base se convierte en el nuevo punto de partida para la migración a la nube, y no es posible sin una solución de monitoreo del rendimiento de aplicaciones con reconocimiento de red.

Lograr una visibilidad total en un entorno de red híbrida también mejora la postura de seguridad de una organización. Las herramientas de seguridad son tan buenas como los datos que las alimentan; si esos datos no son lo suficientemente buenos, o tienen lagunas, las herramientas pueden perder indicadores de malware o ataques a la red. Por lo tanto, obtener una visibilidad completa de la red ayuda a acortar la ventana de respuesta a incidentes y reduce el tiempo de permanencia del malware. Además, muchas soluciones de detección y respuesta de red (NDR) se pueden implementar para detectar actividad sospechosa en entornos de nube, pero solo si tienen acceso a datos de red de alta resolución desde esos entornos de nube.

Sin embargo, esta supervisión del rendimiento y la seguridad no es fácil de lograr a medida que aumenta la complejidad de la red, porque cuanto más compleja es la red, es más probable que haya barreras o límites que limiten la visibilidad. Una solución de visibilidad de red realmente buena debe poder monitorear de manera confiable el tráfico en la totalidad de la arquitectura de red híbrida actual y futura de una organización, con elementos físicos, virtuales y nativos de la nube implementados en los centros de datos, sucursales y entornos de múltiples nubes con un solo análisis de eventos del panel.

Desafortunadamente, los puntos ciegos en la infraestructura de la nube pública aún pueden confundir la visibilidad. De hecho, hasta mediados de 2019, todas las principales plataformas de nube pública eran una caja negra en términos de visibilidad. Esto dificultaba especialmente la supervisión del rendimiento de las aplicaciones y la garantía de seguridad. Existen formas de evitar esta falta de visibilidad, pero todas tienen limitaciones, y ninguno de estos métodos proporciona los datos de red de alta calidad necesarios para investigar problemas difíciles de seguridad, aplicaciones y experiencia del usuario. Afortunadamente, en el último año, los principales proveedores de servicios en la nube comenzaron a brindar acceso a flujos de datos de red enriquecidos. Estas características duplican el tráfico de red hacia y desde las aplicaciones del cliente y lo reenvían a las herramientas de monitoreo de seguridad y rendimiento nativas de la nube para su evaluación. Esto le da a TI mucha más visibilidad de las implementaciones de la nube pública y permite la portabilidad de los flujos de trabajo locales para facilitar su uso.

Grandes transformaciones

Muchas sucursales empresariales también están pasando por transiciones como la virtualización, el aumento de las redes inalámbricas y la conectividad SD-WAN al centro de datos y la nube pública. Esto requiere mecanismos de visibilidad de la red que puedan integrarse con tecnologías más nuevas. Las sondas livianas para la captura y el análisis de paquetes remotos, la generación de datos de flujo y el monitoreo de la experiencia del usuario final son algunos de los requisitos comunes para estas transiciones.

El principal desafío de TI es recopilar datos de este entorno híbrido distribuido y luego correlacionarlos, analizarlos y convertirlos en información procesable que pueda impulsar las decisiones comerciales. Están surgiendo nuevas herramientas y tecnologías de automatización para ayudar, incluido el análisis automático de la causa raíz mediante AI / ML y recomendaciones prescriptivas o predictivas que pueden incorporarse al marco general de AIOps (AI for ITOps). Pero, nuevamente, este análisis automatizado requiere información de red de alta calidad, o producirá conclusiones inexactas o engañosas que pueden afectar negativamente las decisiones comerciales y la experiencia del cliente.

En resumen, una suite de visibilidad híbrida cohesiva permite a las organizaciones utilizar una combinación coherente de herramientas, flujos de trabajo, datos y conocimientos al gestionar entornos híbridos (el proverbial "panel único"). Esto hace que la capacidad emergente de recopilar los mismos conocimientos profundos en la infraestructura pública y privada cambie las reglas del juego para el monitoreo y la seguridad del rendimiento de la red y las aplicaciones. Cuando el departamento de TI tiene acceso a todo el tráfico de la red, que ofrece un conocimiento de la situación mucho más rico y profundo en comparación con los datos de registro, pueden realizar investigaciones de seguridad o monitoreo de aplicaciones y redes más efectivos. En última instancia, una mejor visibilidad significa una mejor experiencia para el usuario final y una menor rotación de clientes, todo al eliminar los riesgos de la infraestructura y las operaciones de TI.


Por Nadeem Zahid, vicepresidente de gestión y marketing de productos en cPacket Networks