A história da indústria dos Data Centers representa um crescimento sem precedentes no setor. Na medida em que o mundo se conectava, surgiam instalações para prestar serviço para pessoas e empresas em várias partes do mundo.

Diariamente, vemos notícias de novas e importantes instalações, com potências cada vez maiores e chips potentes. Apesar de tudo isso, a indústria foi capaz de evitar saltos energéticos significativos, uma prova da inovação e da mudança no funcionamento do setor.

Este artigo apareceu no suplemento Transição Energética, em inglês. Leia grátis

Em 2020, a Universidade de Northwestern, o Laboratório Nacional Lawrence Berkeley (LBNL) e a Koomey Analytics publicaram um estudo pioneiro sobre o uso global da energia nos Data Centers.

Descobriram que, entre 2010 e 2018, a computação aumentou 550%. O tráfego do protocolo de Internet (IP) se multiplicou por mais de 10 e a capacidade de armazenamento dos Data Centers se multiplicou aproximadamente por 25.

Neste mesmo período, o uso de energia cresceu somente 6%, até 203 TWh.

Essa discrepância é digna de destaque: com a incerteza crescente na rede, e com os Data Centers no foco pelo seu impacto nas emissões de carbono, é difícil imaginar como o setor seria visto se tivesse crescido de forma linear com a computação.

power torre.png
Sebastian Moss – Sebastian Moss

As métricas e as pesquisas erradas simplificaram durante muito tempo a conexão entre a demanda dos Data Centers e a energia, e durante anos previu que o aumento do uso da energia poderia saturar a rede. "Uma forma rápida de tentar prever o uso da energia nos Data Centers é escalar, com outros valores, o uso da eletricidade. É possível escalar com o número de pessoas que estão assistindo vídeos online, com o aumento da população ou com o tamanho geral do mercado desde um ponto de vista financeiro”, disse à DCD o co-autor do documento, Dr. Arman Shehabi, da LBNL.

"E se começam a encontrar extrapolações estranhas porque há múltiplas variáveis que mudam realmente a cada ano, como o fato de que há mais servidores, mas a forma em que são utilizados os servidores está mudando. Podemos ver o aumento da eficiência em várias partes, como no armazenamento. Os processadores estão mudando, assim como os sistemas de refrigeração mudaram com o tempo”.

Segundo Arman Shehabi, tudo isso deve ser incluído. “Qual é a capacidade de armazenamento? Quanto está aumentando o tráfego IP? Quantas cargas de trabalho estamos vendo? São fatos que devemos considerar”.

Shehabi afirma que há focos na quantidade de dados que se utilizavam para o streaming de vídeo nos primeiros anos do século, e a quantidade de energia que pedia. E logo tentar escalar a demanda de streaming de hoje. “O uso da energia aumentou em consequência disso? Claro que não”, disse.

O que ocorreu foi uma obra notável de engenharia. No âmbito dos semicondutores, desenhadores de processadores como a Intel e a AMD conseguiram mais e mais eficiência nos processadores na medida que seguiam a Lei de Moore. Foram criados novos Data Centers que continuaram com as melhores práticas de refrigeração e desenho.

As antigas instalações foram sendo eliminadas pouco a pouco e substituídas pelos Data Centers avançados, construídos pelos hiper escaladores. A nuvem também mostrou que a utilização dos servidores aumentou, deixando menos servidores parados e consumindo energia de maneira desnecessária.

“Em 2005, visitei um centro de dados no LBNL”, lembra Shehabi. "Havia bastidores de servidores, e logo estes diferentes aparelhos de ar condicionado da sala de computadores que estavam no chão, colocados aleatoriamente em vários lugares. Existiam todos esses lugares, diferentes, onde o ar quente se misturava com o ar frio, e esses ventiladores de escritório sopravam o ar em diferentes lugares. Era muito ineficiente. É como construir uma geladeira sem porta. Ao colocar a porta, a eficiência aumenta”.

Em seus esforços para rastrear o uso de energia na época, descobriu que os centros de dados e as salas de servidores refrigerados utilizavam o dobro de energia que as TI. Isto equivale a um PUE de 3,0, um valor que diminuiu substancialmente, ao ponto de hiperescaladores como o Google afirmarem ter um PUE de apenas 1,10.

Um colega, Jonathan Koomey, também estudou a prevalência de "servidores zumbis", ou seja, servidores que ainda estavam em funcionamento apesar de serem inúteis. Ele descobriu que 10% dos servidores do mundo poderiam ser classificados como zumbis, pois estavam simplesmente desperdiçando energia porque ninguém os desligava: "Esta era outra grande oportunidade para aumentar a eficiência", disse ele. Mais difíceis de rastrear eram os servidores que tinham uso, mas com uma baixa taxa de utilização - o que significa que a maior parte do cálculo ficou sem uso - mas esse número também melhorou com o crescimento da nuvem.

Tudo isso é algo para celebrar. Sem os esforços combinados de centenas de milhares de trabalhadores de centros de dados, TI e semicondutores, a indústria não teria sido capaz de suportar seu crescimento, pois a rede simplesmente não poderia ter atendido às necessidades do mundo digital.

Mas, como sempre, é a maldição do sucesso precoce, não há garantia de manter o ritmo. "Acho que no futuro vai ser mais difícil, porque essas oportunidades óbvias de lucro não estão realmente lá", disse Shehabi. "E vai ser preciso haver outras formas de obter ganhos de eficiência nas ordens de magnitude para equilibrar os aumentos de magnitude nos serviços que podemos esperar da indústria".

wind_turbine.png
Sebastian Moss – Sebastian Moss

Não há sinais de que o ritmo de construção do centro de dados esteja diminuindo, especialmente porque a pandemia reforçou a necessidade de trabalhadores hiper-conectados. Acompanhar este crescimento sem que o consumo de energia fique fora de controle será um dos grandes desafios do nosso tempo.

Com relação ao chip, já há motivos de preocupação. Os semicondutores não estão mais avançando tão rápido como antes: A morte da Lei de Moore é agora um fato, mas seu desaparecimento veio como um longo e arrastado gemido, não como uma explosão repentina. As melhorias na densidade dos transistores começaram a diminuir já em 2010, e o ritmo foi aumentando gradualmente. Os fabricantes estão atingindo os limites físicos dos transistores, e não está claro até onde eles serão capazes de ir após os nós de processo de 2-3 nm.

Os projetistas de chips responderam de forma decisiva, explorando novas maneiras de melhorar o desempenho além da densidade do transistor. Mas eles também mantiveram as melhorias computacionais, aumentando a potência de projeto térmico (TDP) dos processadores, ou seja, ganhando mais potência computacional ao passar mais energia elétrica através do chip. Mas isso aumenta tanto a demanda de energia do servidor quanto a necessidade de resfriamento.

Em seguida, há o layout dos centros de dados. Embora existam algumas instalações mais antigas que ainda se agarram, e os engenheiros estão felizes em compartilhar histórias sobre as ineficiências de seus concorrentes, a realidade é que muitas das melhorias óbvias foram feitas. O PUE médio dos centros de dados diminuiu, mas está começando a se estabilizar no limite. Os estudos diferem quanto ao que é o PUE médio, mas acredita-se que as instalações modernas voltadas para a eficiência (em climas tolerantes) estejam em torno de 1,2. Mesmo se reduzido, passar de 1,2 para 1,1 não trará a mesma melhoria que passar de 2,5 para 1,2.

Ao mesmo tempo, as condições para reduzir o PUE estão se tornando cada vez mais difíceis, e não apenas porque os chips estão ficando mais quentes. Mais problemático é que o mundo está ficando mais quente. Neste verão, os centros de dados do Google e Oracle no Reino Unido simplesmente pararam de trabalhar no meio de uma onda de calor abrasador. As instalações foram construídas para um mundo pré-climático que está tendendo a desaparecer lentamente. É de se esperar que as futuras instalações tenham mais equipamentos de resfriamento, que funcionarão mais regularmente, pois o ar natural do ambiente não pode ser confiável.

Os hipercalibradores também foram capazes de reduzir o desperdício com eficiências de escala, construindo vastas fazendas de servidores que podem compartilhar equipamentos de infraestrutura. Agora eles estão indo para o limite, seja com Data Centers menores dentro das cidades ou com micro Data Centers que podem ser tão pequenos quanto metade de um rack. Isso significará uma perda dessa escala, mas os fornecedores de Edge argumentam que isso reduzirá a energia necessária para transportar dados para frente e para trás. A história da Edge ainda está começando, portanto é muito cedo para dizer qual das duas opções terá um desempenho superior à outra.

Hot Topics Masthead.jpg

Episódio de Podcast Episode 15 - Tracking data center power use with LBNL's Dr. Arman Shehabi

As grids around the world struggle to meet demand amid heatwaves and wars, data center power and water usage is increasingly coming under scrutiny. We talk to the researcher who has spent years trying to track the sector's consumption, so that regulators and companies alike can access accurate figures on a secretive sector.

Com a situação sobre o uso da energia e o sobreaquecimento dos servidores, muitos operadores de Data Center estão se voltando para a água.

O resfriamento direto de líquidos é uma meta a longo prazo, pois a absorção de calor pela água pode significar que é necessária muito menos potência de resfriamento. Mas isso é uma grande mudança no hardware do Data Center. Uma abordagem a curto prazo é utilizar o resfriamento evaporativo, o que aumenta o consumo de água.

"Ao se concentrar na métrica PUE, a indústria reagiu e disse: 'vamos jogar água dentro'. Mas agora você está consumindo muito mais água, e por isso tapou um buraco criando outro", diz Shehabi.

Se feito corretamente, o uso da água poderia ajudar a evitar um aumento maciço de energia, mas também não está claro quantos planos de Data Centers realmente levam em conta o mundo em mudança. Os EUA estão em meio a uma seca histórica e implacável, mas os Data Centers ainda estão tentando competir pela água (muitas vezes até água potável) e acessar reservas de aqüíferos não renováveis.

No Reino Unido, a empresa de serviços públicos Thames Water lançou uma investigação sobre a água do Data Center em Londres e Slough, alegando que o setor estava usando demais o recurso no meio de uma seca. Mas esta declaração veio quando a Autoridade da Grande Londres alegou que novos empreendimentos habitacionais no oeste da cidade poderiam ser bloqueados por mais de uma década porque os Data Centers ocuparam toda a capacidade elétrica, destacando o delicado equilíbrio que o setor terá que administrar à medida que as soluções de energia e resfriamento se tornem difíceis de encontrar.

Shehabi continua esperançoso, apontando para chips especializados que são mais eficientes para certas cargas de trabalho, e a maravilhosa inventividade da indústria. Mas ele adverte que o desafio é imenso.

O Congresso dos EUA deu oficialmente início ao longo processo burocrático que levará a equipe de Shehabi a criar um novo relatório sobre o uso da energia nos Data Centers. "A indústria mudou completamente desde a última vez que olhamos para ela, e espero que seja um relatório realmente inovador, francamente. O que eu não sei é como será a tendência no uso da eletricidade: se será a mesma que vimos no passado, ou se veremos um aumento maior ou talvez uma diminuição. Nós não sabemos", disse Shehabi.

Por Sebastian Moss, DataCenterDynamics