Pular para o conteúdo
O silício no limite: Data centers de IA na China adotam refrigeração líquida em massa para evitar superaquecimento
Computação
silício
limite
data
centers
china
adotam

O silício no limite: Data centers de IA na China adotam refrigeração líquida em massa para evitar superaquecimento

Publicado em 22 de fevereiro de 2026 às 15:43

2 min de leitura

A corrida pela supremacia global na Inteligência Artificial está a esbarrar num obstáculo físico implacável: o calor extremo. Com a construção acelerada de gigantescos clusters de processamento em todo o território nacional, a China está a ser forçada a abandonar os tradicionais sistemas de ar-condicionado e a migrar de forma agressiva para a refrigeração líquida (liquid cooling) para manter os seus data centers operacionais.

A mudança não é um luxo arquitetônico, mas uma necessidade matemática de sobrevivência. Relatórios recentes do mercado asiático indicam que os racks de servidores dedicados a cargas de trabalho pesadas de IA chegam a dissipar de 6 a 8 vezes mais calor do que os servidores tradicionais em nuvem.

O salto brutal do TDP

Para quem acompanha a evolução do hardware de perto, o motivo do superaquecimento é evidente: a escalada sem freios do TDP (Thermal Design Power).

Aceleradores de IA estão a ficar energeticamente insaciáveis. Enquanto gerações passadas de GPUs corporativas (como a arquitetura Hopper) operavam na exigente casa dos 700W, as novas arquiteturas e os próximos lançamentos (como os monstruosos chips Blackwell e Vera Rubin) ultrapassam com facilidade a barreira dos 1.000W de consumo por unidade. Resfriar milhares destes processadores empilhados num espaço confinado utilizando apenas o fluxo de ar tornou-se tecnicamente ineficiente e financeiramente insustentável.

A pressão do Governo e a eficiência energética

Além do gargalo do hardware, a transição chinesa tem um fortíssimo componente regulatório. O governo chinês tem apertado o cerco e imposto limites rigorosos de PUE (Power Usage Effectiveness) para a construção de novos prédios de servidores, exigindo índices abaixo de 1.3 em cidades de Nível 1 (como Pequim e Xangai).

Na prática, isso significa que quase toda a energia consumida pelo prédio deve ir estritamente para o processamento, deixando uma margem mínima de desperdício para o gasto com refrigeração e luzes. Para resolver essa equação e atingir as metas governamentais de infraestrutura verde, as empresas estão a adotar soluções híbridas, refrigeração Direct-to-Chip (blocos de água espessos direto nos processadores) e até mesmo sistemas de imersão total (onde as placas são completamente mergulhadas em fluidos dielétricos não condutivos).

Um mercado multibilionário

A refrigeração de data centers deixou de ser um detalhe oculto da infraestrutura para se tornar um dos nichos mais quentes da indústria tecnológica. Estimativas do banco suíço UBS, repercutidas recentemente, apontam que o setor global de liquid cooling deve saltar para espantosos US$ 31 bilhões até 2030, impulsionado pela construção ininterrupta de “fábricas de IA”.

O recado da indústria é claro: na nova era da computação de altíssimo desempenho, a vantagem competitiva não pertence apenas a quem consegue empacotar mais transistores numa placa, mas a quem consegue dissipar o calor gerado por eles de forma mais inteligente.

Fonte: Hardware.com.br

Leia também