Contenido Archivado

El siguiente contenido es de una versión anterior de este sitio web y es posible que no se muestre correctamente.
Podemos entender por sistemas de misión crítica a aquellos servidores que ejecutan aplicaciones esenciales que, si fallan, tienen un impacto significativo en el funcionamiento de cualquier empresa, organización o institución que dependa de su información. Estas aplicaciones pueden ser desde el correo electrónico, hasta sistemas de administración de una empresa como cálculo de inventario, transacciones bancarias, nómina y flujos de efectivo, o bien la gestión de finanzas o del sistema de pensiones por parte de un gobierno, por poner algunos ejemplos. Éstas y muchas aplicaciones más corren en estos servidores que cuentan con sistemas operativos habilitados para trabajar con diferentes plataformas de misión crítica y de esta forma asegurar la continuidad del negocio. Sin embargo, ¿cómo han evolucionado los servidores enfocados al cómputo de misión crítica? Históricamente, éstos eran grandes mainframes o sistemas RISC (Reduced Instruction Set Computer por sus siglas en inglés) en su mayoría costosos y de propiedad, además de que era necesario contar con espacios amplios para ellos y ejecutaban sistemas operativos UNIX o mainframes muy fiables. Esta apariencia y modo de uso data desde los años 70. ¿Qué ha cambiado? Actualmente, los servidores encargados de mantener disponibles estas aplicaciones suelen tener un mayor poder de procesamiento (4, 8, 16, 32 procesadores, etc. en un solo sistema), una gran memoria y capacidades de expansión. También tienen una gran cantidad de componentes redundantes para reducir el riesgo de una falla en el servidor debido a un desperfecto en alguna parte mecánica. Las partes redundantes incluyen fuentes de alimentación, ventiladores, unidades de disco, etc. Por ejemplo, con cada nueva generación de CPUs de servidor de Intel, tanto en las líneas de productos Xeon como Itanium, añadieron algunas características de confiabilidad, disponibilidad y mantenimiento (llamadas RAS para abreviar, del inglés Reliability, Availability and Serviceability) a estas plataformas basadas en tecnología Intel. Estas características, que proporcionaban una disponibilidad de hardware adicional, junto con la maduración de las opciones de sistemas operativos fiables, tanto de Microsoft como Linux, proporcionaron una oportunidad para que los gerentes de TI ahorrasen recursos en la adquisición, gestión y mantenimiento de estos costosos sistemas UNIX y mainframe. ¿El impacto? Cada vez más empresas, al enfrentarse a la renovación de sus contratos de mantenimiento o en caso de necesitar recursos de cómputo adicionales en RISC o en sistemas mainframe, tienen más alternativas para obtener un mejor costo de propiedad y retorno de la inversión. Esta transición se muestra claramente cuando se observan los ingresos de sistemas reportados. Para la consultora IDC, entre 2002 y 2010, los ingresos generales de los sistemas RISC y mainframe se redujeron en un impresionante 50%, al pasar de 30.000 millones a 15.000 millones de dólares. En América Latina, el descenso fue aún mayor: de un 64% durante el mismo período. ¿El resultado? Los gerentes de TI y los CIOs han podido observar estos cambios y han impulsado a sus empresas a por lo menos estudiar la posibilidad para migrar de los sistemas antiguos, grandes y costosos a la arquitectura Intel que permite en menor espacio, mayor capacidad de procesamiento, seguridad y disponibilidad de la información. ¿El futuro? Hoy, todas las empresas tienen desafíos grandes, y la migración de sistemas propietarios costosos a la arquitectura abierta de Intel puede ayudar mucho a liberar recursos para inversiones estratégicas que aumenten la competitividad de las empresas.