Por Mike Hoy, director de tecnología de Pulsant


La historia de la tecnología empresarial a menudo puede entenderse como una oscilación entre centralización y descentralización a medida que la industria oscila entre posiciones aparentemente opuestas.

Innovación centralizada

La centralización favorece el desarrollo temprano de tecnologías innovadoras. Grandes recursos, a menudo bien financiados, se concentran en uno o pocos lugares, y equipos que compiten entre sí trabajan en un tema similar.

Este enfoque intenso conduce a una explosión de innovación y a una evolución temprana acelerada. Los productos y servicios surgen rápidamente y múltiples variaciones de la tecnología moderna "nacen" colectivamente en rápida sucesión.

Aplicación descentralizada

En este punto, la tecnología debe salir al mercado y comienza el proceso de descentralización. Las aplicaciones del mundo real difieren en los distintos sectores y geografías, y múltiples ciclos de retroalimentación comienzan a refinar los productos y servicios rápidamente. Estas optimizaciones impulsan la ventaja del pionero y el retorno de la inversión (ROI) comienza a dispararse.

Esto, a su vez, atrae inversiones que amplían la descentralización a medida que la tecnología se expande a industrias y geografías más diversas.

Entra la IA

Esta oscilación se está observando ahora en la IA, específicamente en la evolución de la IA.

Es importante reconocer el increíble ritmo de esta evolución. Si bien la IA ha sido parte de la tecnología empresarial durante años, han pasado apenas veinte meses desde que ChatGPT introdujo la IA en la conciencia pública y la colocó en el primer lugar de la agenda de todos los CIO.

Pero ya estamos viendo un cambio desde un enfoque centralizado hacia uno más distribuido en materia de IA. Esto se debe a la evolución de la IA generativa y los grandes modelos de lenguaje (LLM) que entrenan a la IA generativa, al ámbito de la IA de inferencia.

Mientras que la "inteligencia artificial generativa" se refiere al uso de la IA para crear nuevos contenidos, como texto, imágenes, música, audio y vídeos, la IA de inferencia se refiere al uso de modelos para producir predicciones o conclusiones basadas en datos existentes. Es la diferencia entre dar forma al presente y ver el futuro.

Este intenso interés en la IA de inferencia está impulsado por empresas que han aprendido las lecciones de las inversiones en tecnología del pasado. Están preocupadas por cómo pueden realmente usar la IA en el curso de sus negocios y cuáles son los beneficios. No es sorprendente que ver el futuro esté en lo más alto de esa lista.

Por qué son importantes las diferentes arquitecturas de IA

La IA generativa favorece los recursos centralizados y a gran escala, tanto de procesamiento de datos como de computación. Ya se ha explorado ampliamente la mayor demanda de energía y capacidad de centros de datos que ha creado la IA generativa, y el desarrollo de la IA generativa tiene todas las características de una innovación concentrada y centralizada.

Pero la IA de inferencia favorece un enfoque más descentralizado. Para proporcionar información y predicciones precisas, la IA debe estar lo más cerca posible de la fuente de datos, de modo que pueda ofrecer análisis en tiempo real. Esto es especialmente cierto si estas fuentes de datos son particularmente ricas, como en el caso de las secuencias de video.

La alta velocidad exige una latencia baja, lo que obliga a ubicar las necesidades de inferencia de la IA cerca de la fuente de datos. Por lo tanto, favorece una arquitectura regional y de borde.

En esta carrera, los nanosegundos importan. Pensemos en una IA de inferencia que sugiera o realice automáticamente transacciones en una bolsa de divisas o en acciones. Si los datos necesarios para alimentar a la IA tienen que viajar a todo el mundo, hay una demora inevitable (por no hablar de un coste sustancial). En comparación, si la IA está dentro del mismo país o región, ese tiempo y ese coste se reducen drásticamente. Y una IA local puede actuar más rápido que una global, lo que le permite ganarle de mano.

Consumiendo diferentes IA

A medida que la IA generativa y la de inferencia comiencen a coexistir, la cuestión crítica será cómo se ofrecerán estas diferentes capacidades a las empresas.

Si bien las empresas pueden tener la capacidad para crear su propia evolución de IA en capas, las organizaciones pequeñas y medianas no pueden darse el lujo de desarrollar su propia infraestructura para gestionar sus requisitos generativos y de inferencia. Y ninguna organización quiere recibir varias facturas de distintos proveedores de IA.

Más bien, la expectativa de estas empresas será que la IA sea parte de las actualizaciones y el desarrollo continuos del software que ya utilizan. Esto ya se ha visto en la incorporación de la IA a Excel y el claro enfoque en la IA en las actualizaciones de Google Workspace y Salesforce Einstein.

Pero las empresas que ofrecen este software o esta funcionalidad de IA necesitan socios de infraestructura digital. Estos socios deben ofrecer no solo el tránsito rápido y seguro de grandes cantidades de datos a capacidades de procesamiento centralizadas (o incluso a la nube), sino también capacidades regionales dedicadas. Esto requiere una cartera de instalaciones en todo el país, conectadas entre sí y luego a Internet y a las nubes.

La evolución de la IA ya ha demostrado que seguirá el camino de la innovación centralizada hacia el uso distribuido; la apuesta realmente inteligente ahora es garantizar que, independientemente de que sea generativa o inferencial, las empresas estén atentas a aquellos casos de uso y aplicaciones de IA que puedan ofrecer una ventaja competitiva más rápidamente.