La carrera por construir la infraestructura de inteligencia artificial del mundo ha visto surgir a muchos recién llegados a la escena, con la esperanza de socavar el dominio del mercado de los hyperscalers.
Para Lambda Labs, el momento no es tanto una cuestión de perseguir una tendencia, sino más bien de asegurarse de poder seguir el ritmo de un auge que predijo hace más de una década.
La empresa se creó en 2012 con el objetivo de reducir los costos de funcionamiento de los modelos de IA después de que sus fundadores tuvieran problemas con los costos de Amazon Web Services (AWS) en una iniciativa anterior. Lambda comenzó vendiendo estaciones de trabajo y servidores con tecnología GPU y pronto lanzó su propio servicio en la nube.
Lambda GPU Cloud opera actualmente desde centros de datos de coubicación en San Francisco, California, y Allen, Texas, y cuenta con el respaldo de más de 820 millones de dólares en fondos recaudados solo este año. Al cierre de esta edición, se están concretando otros 800 millones de dólares.
"Hace 20 o 25 años, con la llegada de Internet, surgió la categoría de desarrolladores de software y ahora hay millones de desarrolladores de software diferentes en el mundo", explica Mitesh Agrawal, director de la nube de Lambda, sobre la filosofía de la empresa. "También habrá millones de desarrolladores de IA y realmente queremos trabajar en estrecha colaboración con ellos, queremos crecer con ellos".
Para aprovechar lo que podría ser una gran ola de IA, Lambda se está centrando en los desarrolladores que están en las primeras etapas. "Hoy, por ejemplo, Lambda tiene en nuestra nube bajo pedido, donde puedes pasar de ingresar tu tarjeta de crédito a ejecutar un trabajo desde tu biblioteca de transformadores de GitHub o HuggingFace en dos minutos", dice Agrawal.
"Si vas a AWS, debido a que tienen que pensar en muchos tipos de clientes, primero tienes que instalar SageMaker, luego tienes que instalar tu entorno, y así sucesivamente.
"Lambda se centra únicamente en casos de uso de GPU para IA, inicialmente para entrenamiento y ahora en inferencia. Hay algo que decir sobre una pila que te permite poner en marcha tu aplicación con mucha más facilidad".
Más allá de la simplicidad y la velocidad, otro factor que juega a favor de la empresa es el costo. AWS, con enormes márgenes históricos que defender, puede cobrar más de $12 por hora por una GPU H100 bajo demanda. Lambda actualmente cobra $2,49, aunque una comparación de precios la deja por detrás de CoreWeave, que cobra $2,23.
El desafío para Lambda y otras empresas en su misma situación no es tanto atraer a los desarrolladores con su facilidad y precio, sino retenerlos si crecen. El proveedor de servicios en la nube DigitalOcean se centró en los desarrolladores de software en la era anterior a la IA, pero vio cómo sus clientes "se gradúaban" hacia otros proveedores de servicios en la nube a medida que alcanzaban la escala, lo que dejó estancado el crecimiento de DO.
"Si quieres hablar de longevidad, como por ejemplo que Lambda exista desde hace 20 o 30 años como empresa, es necesario mantener aquellas startups que están creciendo", dice Agrawal.
"Eso se debe a que contamos con más funciones de software y a que somos agresivos en cuanto a precios. No cotizamos en bolsa, somos muy inteligentes en materia financiera y queremos mantener un nivel de sostenibilidad [financiera] en la empresa, pero no estamos bajo la presión de los mercados financieros o públicos, que tienen que establecer determinados márgenes. Los precios se convierten en un factor determinante para nosotros".
Es posible que la empresa "ni siquiera esté presente en cuanto a funciones para graduaciones", admite Agrawal. "Pero sacrificamos parte del margen de precios y luego elegimos a algunos de nuestros principales proveedores y nos centramos en las funciones que necesitan para asegurarse de que se gradúen con usted".
Ese es el plan, al menos. "En este momento, la estrategia es capturar el mercado", explica Agrawal. "Implementar la mayor cantidad de computación posible y luego, a medida que estas empresas crezcan, nos aseguraremos de mantenernos en contacto con ellas y seguirlas, y de asegurarnos de que al menos algunas de ellas se gradúen con nosotros".
También espera incorporar a más empresas consolidadas en el camino y cuenta con Sony, Samsung e Intuitive Surgical como clientes. “Realmente creemos que el mundo va a tener grandes empresas de IA, pero también habrá una gran cantidad de empresas existentes que adoptarán la IA”, afirma Agrawal.
“Se utilizan mucho los modelos y las capas más antiguas. Las empresas de tecnología son las primeras en adoptarlos, las empresas de servicios financieros, las farmacéuticas y los medios de comunicación y el entretenimiento se están sumando a ellos. Pero las compañías de seguros tal vez recién estén empezando. Hay tantas capas de esto que se pueden crear nichos aquí”, continua.
La ambición, dice Agrawal, es “ser la nube número uno para cosas como esta”, y cree que hay grandes empresas en cada uno de estos sectores que podrían estar al alcance de su empresa. “Sigues agregándolas [a tu servicio] a medida que creces y, con suerte, llegas a un cierto nivel de configuración del tipo 'demasiado grande para quebrar'”, dice.
Para Lambda y cualquier otro proveedor de servicios en la nube, la diferenciación más allá del precio y algunas características del software se ha vuelto cada vez más difícil en un mercado de hardware totalmente controlado por Nvidia.
"Si lo piensas desde una perspectiva más amplia, estás obteniendo las mismas GPU de Nvidia de AWS que CoreWeave, OCI y nosotros", dice. "Pero AWS es un mercado de materias primas, el mercado de CPU es una materia prima, y puedes construir un negocio de $80 mil millones de ingresos anuales recurrentes a partir de eso".
Para algunos, el factor diferenciador clave es la escala. Microsoft ha desplegado exaflops de computación en los últimos años, con una gran parte dedicada a su hijo favorito, OpenAI. Ahora, circulan rumores sobre un megaproyecto de centro de datos "Stargate" de 100 mil millones de dólares y 5 GW para el creador de ChatGPT.
"Sé que no han hecho ningún comentario al respecto, pero lo harán", afirma Agrawal. "Nos enteramos antes de que los medios empezaran a informar al respecto".
Esto ha generado temores de que, a medida que los modelos crezcan de manera insondable, solo unas pocas empresas con recursos casi ilimitados podrán seguir el ritmo.
Agrawal tiene una opinión diferente. “Es realmente genial que una empresa vaya a gastar 100.000 millones de dólares en IA”, afirma. “Sobre todo teniendo en cuenta que es probable que la IA sea muy beneficiosa para la humanidad”.
En el caso de Lambda, Agrawal afirma que el posible proyecto demuestra el inmenso valor de desarrollar en el ámbito de la inteligencia artificial. "Es un gran indicador de mercado que una de las empresas más inteligentes del planeta esté dispuesta a invertir 100.000 millones de dólares", afirma.
"Por supuesto, no podemos invertir 100.000 millones de dólares de inmediato, pero hay una cifra que podemos alcanzar y tenemos la ambición de que algún día, tal vez en cinco o cincuenta años, Microsoft y Lambda tengan un tamaño de implementación similar".
Así como Microsoft se está esforzando para financiar una implementación tan enorme, "Lambda está implementando a gran escala, porque creemos que los ciclos de entrenamiento serán cada vez más largos".
Aunque OpenAI y algunos de los otros grandes equipos de IA recurrirán a estas supercomputadoras, Agrawal cree que existe un mercado para otros que busquen sistemas más pequeños. "Y, una vez que se implementa un modelo grande, eso no significa que no se pueda dividir en modelos más pequeños", afirma.
Por ahora, a pesar de algunas preocupaciones planteadas por Goldman Sachs y otros sobre los costos a largo plazo de la IA, el mercado parece estar dispuesto a respaldar tanto implementaciones grandes como pequeñas de IA. La demanda es simplemente la de contar con tantas GPU como sea posible, lo antes posible.
Esto ha llevado a una asignación imperfecta de los fondos de los clientes a proveedores de servicios en la nube de menor calidad. “Si sus productos en la nube son malos, pero el cliente ha agotado todas las vías para encontrar un proveedor (por ejemplo, si Lambda no tiene capacidad en este momento), se pasará a la nube de menor calidad”, afirma Agrawal.
“Ese es el mercado en el que nos encontramos, la curva de demanda es más alta que la oferta. Anticipamos que esto no será así solo durante seis o dieciocho meses, sino hasta donde podamos ver: tres, cuatro o cinco años, tanto en términos de demanda, de capacitación como de inferencia”.
Agrawal prevé un crecimiento vertiginoso durante algún tiempo, incluso mientras la red eléctrica estadounidense lucha por mantener el ritmo. "Mira, es fácil dejarse llevar por todo esto", dice. "Escuchas a Elon [Musk] decir que el próximo modelo requiere 100.000 GPU, o escuchas hablar de [el generador de video OpenAI] Sora y cuántas horas de tiempo de GPU utiliza".
Pero, sostiene, "cuando pensamos en la demanda de computación y las insondables cantidades de GPU y energía, creemos que va a explotar. Tenemos mucha confianza en el espacio y en extraer valor del mismo".
La empresa de Silicon Valley ha basado su negocio en predecir este auge y en creer que durará.
“Nosotros, como ingenieros de IA, creemos en ello. Estamos aquí para el largo plazo”, afirma Agrawal. “Queremos contribuir y generar un impacto acelerando el progreso humano a través de la IA”.