Por Adam Levine, director de operaciones del grupo Data4


La evolución de la inteligencia artificial (IA), en particular los productos de IA generativa como ChatGPT, ha dominado los titulares durante el año pasado. Más allá de su potencial para perturbar o mejorar la vida cotidiana –un debate que dejaré para otro momento–, un impacto que a menudo se pasa por alto de la IA, y de hecho de toda adopción de tecnología a gran escala, es el de los centros de datos.

Habiendo experimentado la introducción y rápida adopción de los móviles y la nube, los centros de datos están bien versados ​​en adoptar un enfoque proactivo hacia las nuevas tecnologías.

Y con la IA todavía en un estado relativamente inmaduro, este es un momento crucial para que los profesionales de los centros de datos consideren cómo responderán al inminente auge de la IA.

Adaptarse a nuevas cargas de trabajo

Podemos clasificar la IA en cuatro categorías principales: procesamiento del lenguaje natural (PLN), visión por computadora, aprendizaje automático y robótica. Si bien la robótica es particularmente sensible a la latencia y generalmente requiere soluciones informáticas Edge muy próximas físicamente al proceso que se gestiona, esperamos que los tres primeros realmente aumenten la demanda de soluciones de centros de datos.

Y satisfacer esta creciente demanda no será tarea fácil. No sólo debemos pensar en las implicaciones físicas de albergar una gran cantidad de servidores para dar cabida a una carga de trabajo de mayor densidad, sino que también debemos considerar cómo integrar nuevas técnicas, como la refrigeración líquida y la refrigeración inmersiva, para combatir el calor. que estos servidores estarán generando.

Además, las cargas no serán estables. Anticipamos que habrá enormes aumentos repentinos en cualquier momento, mientras que históricamente los centros de datos han manejado cargas razonablemente planas y consistentes.

Uno de los mayores desafíos es que la IA no es una entidad homogénea, sino una tecnología que se divide en dos fases distintas: entrenamiento e inferencia. Tiendo a comparar esta distinción con un atleta: primero, se prepara para una carrera (entrenamiento de IA), antes de dirigirse a una competencia para poner a prueba sus ejercicios (inferencia de IA).

Los centros de datos exitosos aprenderán a adaptarse a ambos. La capacitación en IA requerirá menos atención en la resiliencia y la redundancia, y más en el costo, el PUE y la eficiencia general. La inferencia, por otro lado, es muy sensible a la latencia y requerirá proximidad a un centro metropolitano para garantizar tiempos de respuesta rápidos para las interfaces de usuario y las aplicaciones.

La perspectiva regulatoria

La dificultad para los reguladores es no saber exactamente cómo se desarrollará la IA. Está en su etapa inicial y, comprensiblemente, los reguladores quieren cubrir todos los peligros potenciales.

La Ley de IA de la UE es un claro ejemplo de esto, ya que los reguladores clasifican las aplicaciones en cuatro niveles de riesgo clave: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo o nulo. En otros lugares, la Directiva NIS2 ampliará el número de sectores que se espera que cumplan con sus regulaciones originales en materia de ciberseguridad, incluida ahora la esfera digital.

El desafío para muchas industrias, incluidos los centros de datos, será garantizar el cumplimiento de las regulaciones en evolución. La IA está avanzando más rápidamente que cualquier cosa que hayamos visto en los últimos años, y los centros de datos seguramente sentirán los efectos en cadena a medida que los reguladores continúen actualizando los parámetros y definiendo nuevos límites de riesgo.

Abordar las principales carencias

Es bien sabido que el valor estratégico de los microprocesadores los ha hecho sujetos a restricciones comerciales gubernamentales. Combinado con la aceleración de la adopción diversa de IA y las enormes cargas de trabajo que exigen esas aplicaciones, las unidades de procesamiento gráfico (GPU) se están volviendo escasas.

Aumentar la producción no es exactamente una solución fácil; de hecho, datos recientes han descubierto que construir una fábrica de chips de dos nanómetros en Estados Unidos o Europa costaría alrededor de 40 mil millones de dólares. Si bien estamos viendo un esfuerzo concertado para distribuir la producción en múltiples regiones y un giro serio de empresas como Vultr y Northern Data para crear una industria de 'nube de IA' completamente nueva, hasta que la oferta iguale la demanda, la escasez de microprocesadores seguramente seguirá siendo un problema.

La escasez de centros de datos también es motivo de preocupación, pero el desafío aquí radica menos en la innovación y más en los recursos finitos de tierra y poder, por no mencionar las políticas que los rodean.

Abordar la escasez de centros de datos requiere un enfoque doble: a) maximizar la capacidad de energía para ofrecer los bajos niveles de latencia que exige la IA, y b) hacerlo en áreas donde hay más terreno disponible. Encontrar ubicaciones remotas para que se lleve a cabo el entrenamiento de IA, de modo que no canibalice las cargas de trabajo de las áreas metropolitanas con muchas inferencias, es un método que resultará extremadamente valioso.

Reconfigurando el centro de datos para la IA

Este concepto de maximizar lo que ya está disponible podría determinar cómo reconfiguramos los centros de datos, ya que coloca la sostenibilidad en el centro de la estrategia.

En Francia, la "artificialización neta cero" es un acuerdo propuesto para detener la expansión urbana y mantener la biodiversidad en los espacios verdes. Para los centros de datos, esto significa aprovechar el potencial de los edificios existentes y densificar estos sitios tanto como sea posible. Pero para ello será necesaria cierta reconfiguración.

Tendremos que evaluar cómo maximizamos el espacio en estos sitios existentes para priorizar la eficiencia para soportar altas cargas de trabajo de IA. La sostenibilidad ya no es un concepto intangible, sino una cuestión muy real que debería definir estrategias de reconfiguración en todo el mundo.

Si no empezamos a tomar mejores decisiones que prolonguen la longevidad de los productos de los centros de datos, como cambiar a técnicas de refrigeración líquida e inmersiva, nuestros esfuerzos por adaptar una infraestructura densa en IA serán esencialmente inútiles.

Mantenerse a la vanguardia de la revolución de la IA es un objetivo ambicioso para cualquier industria, incluidos los centros de datos. Pero al adoptar técnicas de refrigeración avanzadas, cumplir con las regulaciones en evolución y defender la sostenibilidad en cada oportunidad, creo que tenemos el potencial de prosperar en esta nueva era de la tecnología.

¿Cómo se está adaptando Data4 a esta nueva ola de demanda de IA?

Lo primero que estamos haciendo es buscar campus más grandes con más potencia para satisfacer estos requisitos. Tenemos un sitio de 180MW en Frankfurt y dos sitios en París, uno con 120MW y otro con 250MW. Creemos que la escala de estos sitios es ideal para satisfacer las necesidades de la IA.

La segunda adaptación clave es la construcción de instalaciones mucho más grandes y densas. Las GPU tienen miles de núcleos, todos ejecutando cálculos complejos simultáneamente.

En un entorno de IA, los servidores deben estar muy cerca unos de otros, a menudo conectados entre sí mediante conexiones InifiBand en lugar de Ethernet. Esto crea un entorno muy denso (y más eficiente) dentro del centro de datos que, a su vez, plantea desafíos para enfriar el servidor.

Se necesitarán tecnologías de refrigeración líquida e inmersiva para gestionar el calor producido en estos entornos. El otro beneficio de los entornos más grandes, en el contexto de la carga de trabajo de entrenamiento de IA, es que pueden albergar una mayor cantidad de sesiones de entrenamiento, cada una con un perfil de consumo fluctuante.

Con cifras más altas, los efectos de las fluctuaciones individuales se erosionan y el consumo general se estabiliza, mejorando así la eficiencia general y la huella ambiental del centro de datos.