Nate Hefner é gerente de desenvolvimento de mercado de data center, Corning Optical Communications


O interesse em inteligência artificial (IA) e machine learning (ML) está em alta.

Ainda que a ideia de IA em si não seja nova, ferramentas que auxiliam o consumidor, como os chatbots, ganharam enorme hype no último ano.

O ChatGPTestabeleceu um recorde ao alcançar 100 milhões de usuários ativos mensais mais rápido do que qualquer outro aplicativo voltado ao consumidor na história.

O aspecto voltado ao público de muitos aplicativos de IA parece simples. Mas sob a superfície, por assim dizer, há uma infraestrutura incrivelmente complexa e uma demanda voraz por capacidade de computação.

Os data centers lutam para projetar e implementar instalações para acompanhar o ritmo. O grande volume de unidades de processamento, infraestrutura de cabeamento, consumo de energia e espaço físico necessários para construir os nodos de data center de IA para atender às demandas do mercado é um empreendimento enorme – e as operadoras precisam se planejar de acordo.

Fibra e redes duplas impulsionam o crescimento da IA

Existem dois tipos de processadores em data centers impulsionando a revolução da IA: unidades centrais de processamento (CPUs) e unidades de processamento gráfico (GPUs).

As CPUs são os cavalos de batalha tradicionais do data center, com foco no processamento serial, ou seja, uma tarefa de cada vez. No entanto, como as GPUs têm um grande número de núcleos menores e mais especializados, elas funcionam melhor com os vários processos paralelos necessários para treinar funções de IA, como modelos de linguagem de grande escala (LLMs).

Uma rede de IA dentro de um data center é, essencialmente, uma rede dentro de uma rede. Dentro da rede de IA, GPUs e CPUs funcionam como as duas metades do cérebro humano. Grandes clusters de servidores com essa configuração podem efetivamente atuar como um supercomputador, acelerando o tempo para treinar modelos de IA.

A fibra é o ponto essencial para permitir que um sistema cresça de forma cada vez mais inteligente de modo exponencial. Por exemplo, quando uma pessoa faz uma pergunta a um assistente digital, as funções de IA serão interligadas com conexões de fibra que analisarão quantidades incontáveis de dados e possíveis respostas em tempo real. E à medida que essas respostas se tornam mais rápidas, mais precisas e mais “humanas”, esses recursos se tornarão mais úteis e mais integrados à vida cotidiana.

Para serem eficazes, os aplicativos de IA exigem um ambiente denso, adaptável e rico em fibras para funcionar. São necessários muitos links de fibra e interconexões ópticas para facilitar um processamento de dados mais alto e a maior largura de banda de memória exigida pela IA.

À medida que o poder de computação de uma rede cresce, os operadores de rede provavelmente experimentarão uma “falha de memória” significativa causada pelas taxas desproporcionais de capacidade de memória e recursos de processamento. É aqui que os componentes com grande número de fibras são fundamentais.

Uma solução para resolver essa falha de memória é conectar GPUs com interconexões ópticas densas de fibra, resultando em contagens de fibra mais altas por servidor.

GettyImages-1533655147.width-358
– Getty Images

Operadores de data center devem planejar um novo modelo de processamento

Para os operadores de data center, no entanto, isso significa que, para suportar o crescimento da IA, eles estão essencialmente construindo duas redes, uma em cima da outra. Há uma série de considerações importantes:

  • Espaço: O espaço físico do rack deve ser maximizado para uma rede de IA. Tradicionalmente, os data centers são principalmente a mesma linha, cabeamento ponto a ponto com cabos de rede. Mas em clusters de IA/ML, cada nodo é conectado a outros nodos, o que significa que, à medida que o cluster de IA/ML aumenta, o cabeamento precisará atravessar o data hall. Quando isso acontece, levar centenas de cabos de rede a diferentes racks em um data hall torna-se demorado; além de apenas fazer com que o local fique bagunçado e entulhado, pode aumentar o risco de danos e erros de identificação. Esse aumento de densidade precisa ser cuidadosamente gerenciado.
  • Energia: A computação intensa necessária para a IA significa que as necessidades de energia têm que ser gerenciadas de forma diferente. A envoltória de densidade de energia para IA e ML pode ser várias vezes maior do que as envoltórias tradicionais. Isso também significa que serão necessários sistemas de resfriamento mais avançados para lidar com o aumento da produção.
  • Largura de banda: À medida que o poder de computação de uma rede cresce, a necessidade de largura de banda de memória se torna maior e mais rápida. A necessidade de largura de banda de memória criou uma “falha de memória” entre a capacidade de memória e a tecnologia de interconexão de alta largura de banda. Uma solução é conectar GPUs com interconexões ópticas de maior capacidade, resultando em contagens de fibra maiores por servidor.
  • Latência: para a IA, os servidores têm GPUs e CPUs integradas para minimizar os gargalos entre a computação e os aceleradores. Enquanto muitos aplicativos de tecnologia de consumo, como realidade virtual/realidade aumentada, operação remota e jogos imersivos priorizam a redução da latência entre a computação e o usuário final, a latência na IA é ditada pela velocidade entre essas unidades dentro do servidor, o que requer cabeamento de alta fidelidade.

Produtos densos em fibra são fundamentais para atender à demanda crescente

Componentes ricos em fibra são essenciais para maximizar o espaço do data center e ajudar os operadores a atender à crescente demanda por processamento de IA.

Em vez de conexões ponto a ponto para comunicações máquina-a-máquina ou “Leste-Oeste” que só eram vistas anteriormente em instituições de pesquisa maciças, como laboratórios nacionais, essas interconexões estão se tornando comuns em data centers de hiperescala que lidam com IA. A chave para gerenciar isso é reduzir a complexidade.

Para acelerar o tempo de conexão desses nodos e simplificar o processo de instalação, é preciso usar conjuntos de cabos pré-terminados.

Com cabos pré-conectorizados ricos em fibra, o cabeamento estruturado pode ser feito antes da chegada de racks e hardware, permitindo que cabos de rede e conjuntos mais curtos sejam usados para conectar as portas para flexibilidade e crescimento futuro.

O que tudo isso significa? Os operadores de data centers – particularmente no nível de hiperescala – precisam garantir que tenham o cabeamento e a infraestrutura para atender à demanda.

As necessidades de processamento da IA são diferentes de outros casos de uso que impulsionam a expansão em hiperescala, como streaming, SaaS, etc. Com um planejamento adequado, os operadores de data center estarão bem preparados para lidar com o crescimento da IA à medida que os aplicativos evoluem de chatbots a casos de uso mais comerciais e generalizados.