En un futuro no muy lejano –si no mañana–, se despertará sintiéndose renovado después de una buena noche de sueño en una casa inteligente con temperatura e iluminación ajustadas automáticamente. Disfrutará del desayuno en una cocina inteligente con una nevera inteligente que nunca se olvida de pedir más leche o zumo de naranja. Saldrá a correr por la mañana con una camiseta deportiva habilitada para IoT que proporciona lecturas biométricas en tiempo real. Y luego conducirá su automóvil inteligente a la ciudad inteligente donde sin duda hará un trabajo inteligente en un edificio inteligente.

Cisco estima que en dos años el IoT consistirá en 50.000 millones de dispositivos conectados a Internet. A medida que los sistemas y las aplicaciones inteligentes se vuelven cada vez más omnipresentes en nuestra vida cotidiana y nuestras empresas, los líderes empresariales y los responsables de la toma de decisiones de TI necesitarán aprovechar nuevas metodologías e infraestructuras para analizar el tsunami que se avecina de estos datos descentralizados.

Sanidad, transporte, servicios públicos, petróleo y gas, retail o agricultura son solo algunas de las industrias que serán transformadas por sistemas y aplicaciones inteligentes a medida que la tecnología evoluciona de un estado de cosas conectadas al Internet de todas partes (Internet of Everywhere). Pero las implementaciones de IoT requieren un procesamiento de la información más cercano al origen de los datos: los propios dispositivos de IoT. En lugar de incurrir en el coste y la latencia de enviar esta información a la nube pública o a un centro de datos centralizado, las empresas necesitarán incorporar el edge computing dentro de sus infraestructuras.

En términos generales, edge computing localiza las funciones de adquisición y control de datos, el almacenamiento de contenido de gran ancho de banda y las aplicaciones en las proximidades del usuario final. Las soluciones edge se insertan en un punto final lógico de una red, ya sea la red pública de Internet o privada, lo que crea una arquitectura de nube más distribuida. Esto reduce el ancho de banda de comunicaciones necesario entre los sensores IoT y el data center central o la aplicación cloud, al realizar análisis y generar conocimiento en o cerca de la fuente de los datos.

Hay cuatro razones clave por las que edge computing se convertirá en esencial para las operaciones de la empresa y la infraestructura de TI de las compañías:

- Mayor velocidad de datos a través de una latencia de computación reducida

- Seguridad, porque los datos permanecen más cerca de donde se crearon

- Escalabilidad, porque edge computing es fundamentalmente "computación distribuida", lo que significa que mejora la resiliencia, reduce la carga de red y es más fácil de escalar

- Coste reducido al minimizar la frecuencia y el tamaño de transmisión de datos a la nube

En la actualidad, aproximadamente el 10% de los datos generados por la empresa se crean y procesan fuera de un centro de datos centralizado tradicional o en la nube. Pero, según la firma de investigación y asesoría Gartner, esta cifra alcanzará el 50% para 2022.

Al ocupar el enlace entre los dispositivos conectados y la nube, edge computing está compuesto por dispositivos locales –como un dispositivo de red o un servidor que traduce las APIs de almacenamiento en la nube; centros de datos localizados que tienen entre uno y diez racks y que proporcionan capacidades significativas de procesamiento y almacenamiento, incluidos los microcentros de datos prefabricados; y centros de datos regionales que tienen más de 10 racks y están ubicados más cerca del usuario y de la fuente de datos que los centros de datos cloud centralizados.

Los data centers de un solo rack pueden aprovechar la construcción, la refrigeración y la energía existentes, ahorrando así en el Capex asociado a la construcción de un nuevo sitio dedicado. Los microcentros de datos de racks múltiples son más capaces y flexibles debido a la escala, pero requieren más tiempo de instalación y su propio medio de enfriamiento dedicado. Estos sistemas prefabricados de cerramiento único son adecuados para una amplia base de aplicaciones que requieren baja latencia, ancho de banda alto, así como una mayor seguridad o disponibilidad.

Los centros de datos regionales tienen más capacidades de procesamiento y almacenamiento que los data centers localizados que tienen de uno a diez racks, pero también necesitan fuentes de energía y refrigeración dedicadas. La latencia depende de la proximidad física de los usuarios y los datos, así como de la cantidad de saltos intermedios.

Administrar el uso de energía en cualquier entorno de centro de datos, ya sea en las instalaciones, en una arquitectura de centro de datos distribuido o en un micro data center que presta servicio al edge, puede ser complejo.

El equipo del data center puede tener la tarea de medir y administrar la energía en los niveles del rack y de la PDU, pero a menudo tiene una visibilidad limitada del consumo del servidor. Además, existen múltiples protocolos propietarios de medición y control de energía admitidos por varios proveedores de soluciones, lo que hace que sea un desafío tener una única solución para la gestión de energía en todos los dispositivos en el centro de datos.

Una solución de gestión de centro de datos que proporcione monitoreo y administración de energía y térmica precisos en tiempo real para servidores individuales, grupos de servidores, racks y otros equipos de TI, como PDUs, ofrece múltiples beneficios para los administradores de TI en entornos de edge computing.

Junto con la facilidad de uso, la simplicidad de implementación y la interoperabilidad entre diversos modelos de servidores y una variedad de productos como PDUs y racks, una solución de gestión de centros de datos puede proporcionar datos térmicos y de energía en tiempo real para racks, rows, blades y salas de centros de datos, ayudando al personal de TI a administrar los puntos de acceso del centro de datos y a realizar una planificación y previsión del uso de la energía.

Una solución de gestión de la infraestructura de data center puede ayudar al personal de TI a administrar la energía en varios dispositivos de múltiples proveedores, eliminando la necesidad de herramientas específicas para cada equipo y capacitando a los gerentes de los centros de datos para tomar decisiones basadas en datos al tiempo que mantienen la operación en momentos de caída –mejorando la continuidad del negocio. Un sistema inteligente o un dispositivo conectado a Internet, ya sirva a un usuario o a una aplicación industrial, solo es efectivo cuando sigue siendo resiliente y continúa estando en funcionamiento.

Jeff Klaus es general manager de Intel Data Center Management Solutions