Pular para o conteúdo
4.600 GPUs NVIDIA conectadas: o supercomputador que vai acelerar a próxima geração de modelos da OpenAI
Computação
600
gpus
nvidia
conectadas
supercomputador
que

4.600 GPUs NVIDIA conectadas: o supercomputador que vai acelerar a próxima geração de modelos da OpenAI

Publicado em 13 de outubro de 2025 às 13:26

4 min de leitura

A Microsoft inaugurou o que pode ser considerado o maior salto de infraestrutura para inteligência artificial da história: um supercomputador em escala de produção com mais de 4.600 GPUs NVIDIA GB300 NVL72, baseadas na arquitetura Blackwell Ultra. O cluster, já operacional no Azure, foi projetado exclusivamente para acelerar os workloads da OpenAI e permitir o treinamento de modelos com centenas de trilhões de parâmetros em dias, não em semanas. Esta é a primeira vez que um sistema dessa magnitude é entregue em produção, marcando um novo padrão para computação acelerada e consolidando a parceria estratégica entre Microsoft, NVIDIA e OpenAI.

Another first for our AI fleet… a supercomputing cluster of NVIDIA GB300s with 4600+ GPUs and featuring next gen InfiniBand.

First of many as we scale to hundreds of thousands of GB300s across our DCs, and rethink every layer of the stack across silicon, systems, and software… pic.twitter.com/EtNvnSAFr6

— Satya Nadella (@satyanadella) October 9, 2025

O coração deste supercomputador é o NVIDIA GB300 NVL72, uma plataforma em escala de rack que integra 72 GPUs Blackwell Ultra e 36 CPUs NVIDIA Grace baseadas em arquitetura Arm em um único sistema totalmente refrigerado a líquido. Cada rack entrega especificações que desafiam os limites da física computacional: 288 GB de memória HBM3E por GPU, 37 TB de memória rápida total, 130 TB/s de largura de banda NVLink dentro do rack e até 1.440 petaflops de desempenho em precisão FP4 Tensor Core. A conexão entre racks é feita através da rede InfiniBand NVIDIA Quantum-X800 de próxima geração, fornecendo 800 Gbps de largura de banda por GPU para escalonamento cross-rack — o dobro da largura de banda do GB200 NVL72.

A arquitetura Blackwell Ultra representa um avanço geracional em relação ao Hopper, com 208 bilhões de transistores divididos em dois dies fabricados no processo TSMC 4NP. Comparado ao H100, o GB300 oferece aceleração de camadas de atenção 2x maior e 1.5x mais operações de ponto flutuante para computação de IA. Em benchmarks de inferência, a plataforma GB300 NVL72 demonstrou até 50x de aumento no desempenho geral de saída de fábrica de IA em comparação com sistemas baseados em Hopper, combinando 10x mais responsividade por usuário e 5x mais throughput por megawatt. Para modelos de geração de vídeo baseados em difusão, o ganho chega a 30x, permitindo geração de vídeo em tempo real a partir de modelos de fundação como o NVIDIA Cosmos.

Infraestrutura projetada para IA de fronteira

The world’s first large-scale @nvidia GB300 NVL72 supercomputing cluster for AI workloads is now live on Microsoft Azure.

The deployment connects 4,600+ NVIDIA Blackwell Ultra GPUs using next-gen InfiniBand network—built to train and deploy advanced AI models faster than… pic.twitter.com/CmmDtcrlwn

— Microsoft Azure (@Azure) October 9, 2025

Construir um supercomputador dessa magnitude exigiu que a Microsoft reimaginasse cada camada da stack de infraestrutura — computação, memória, networking, datacenters, refrigeração e energia — como um sistema unificado. No nível do rack, NVLink e NVSwitch reduzem gargalos de memória e largura de banda, conectando 37 TB de memória rápida com até 130 TB/s de transferência de dados intra-rack. Para escalar além do rack, o Azure implementa uma arquitetura full fat-tree não bloqueante usando InfiniBand NVIDIA Quantum-X800, a malha de rede mais rápida disponível atualmente.

A stack co-engenheirada da Microsoft, incluindo protocolos customizados, bibliotecas coletivas e computação in-network, garante que a rede seja altamente confiável e totalmente utilizada pelas aplicações. Recursos como o NVIDIA SHARP aceleram operações coletivas e dobram a largura de banda efetiva ao realizar cálculos matemáticos diretamente no switch, tornando o treinamento e a inferência em larga escala mais eficientes. Os sistemas avançados de refrigeração do Azure utilizam unidades trocadoras de calor standalone e refrigeração de facilities para minimizar o uso de água enquanto mantêm estabilidade térmica para clusters densos e de alto desempenho como o GB300 NVL72.

Do GB200 ao GB300: evolução acelerada

Anteriormente, o Azure introduziu as máquinas virtuais ND GB200 v6, aceleradas pela arquitetura Blackwell original da NVIDIA. Essas VMs rapidamente se tornaram a espinha dorsal de alguns dos workloads de IA mais exigentes da indústria, incluindo organizações como OpenAI e Microsoft que já utilizam clusters massivos de GB200 NVL2 no Azure para treinar e implantar modelos de fronteira. Agora, com as VMs ND GB300 v6, o Azure eleva o patamar novamente, otimizando especificamente para modelos de raciocínio, sistemas de IA agêntica e IA generativa multimodal.

Fonte: Hardware.com.br

Leia também