Pular para o conteúdo
NVIDIA e Kioxia planejam SSDs até 100 vezes mais rápidos que os atuais
Computação
nvidia
kioxia
planejam
ssds
até
100

NVIDIA e Kioxia planejam SSDs até 100 vezes mais rápidos que os atuais

Publicado em 14 de setembro de 2025 às 12:47

2 min de leitura

A NVIDIA e a japonesa Kioxia estão unindo forças em um projeto que pode reinventar o futuro da inteligência artificial: SSDs capazes de alcançar velocidades até 100 vezes superiores às soluções de armazenamento atuais, informa a Nikkei. O plano não é apenas turbinar a performance, mas criar uma nova arquitetura de memória capaz de quebrar a dependência das tradicionais HBM, que reinam no setor de IA.

A corrida pelos 200 milhões de IOPS

O objetivo da NVIDIA é ousado: atingir 200 milhões de operações de entrada/saída por segundo (IOPS) em soluções SSD. Para entender o impacto, trata-se de um patamar cem vezes acima da média dos SSDs convencionais usados hoje em servidores e PCs.

A ideia é simples na teoria, mas complexa na prática. A Kioxia, líder em memória flash, prepara uma solução em duas etapas: usar dois SSDs, cada um com 100 milhões de IOPS, trabalhando de forma sincronizada para chegar à meta da NVIDIA.

PCIe 7.0: a via expressa dos dados

Um dos segredos dessa aposta é o uso do PCIe 7.0, a nova geração de interface que entrega largura de banda muito acima do PCIe 5.0 encontrado nos PCs gamer atuais. Essa conexão ultrarrápida será essencial para lidar com os volumes massivos de dados que a IA exige.

Mais do que isso, a NVIDIA planeja montar os SSDs diretamente na GPU, evitando gargalos comuns nas arquiteturas tradicionais. A mudança, no entanto, exige um redesenho completo de hardware, criando um ecossistema inédito do zero.

As armas secretas da Kioxia: HBF e XL-Flash

Para chegar a esse patamar, a Kioxia aposta em duas tecnologias próprias:

• HBF (High-Bandwidth Flash): derivada de pesquisas da SanDisk, promete superar as limitações da NAND convencional e escalar até múltiplos terabytes por chip.

• XL-Flash: versão avançada de NAND de baixa latência, pensada para cargas críticas no data center.

Essas soluções atendem a uma demanda clara: mais capacidade, menos gargalos e novas formas de alimentar sistemas de inteligência artificial em treinamento e inferência.

Além da HBM: custo e flexibilidade em jogo

O avanço representa um movimento estratégico da NVIDIA. A ideia é reduzir a dependência das memórias HBM, que, apesar de extremamente rápidas, são caras e difíceis de escalar em volume.

NAND de nova geração poderia garantir não apenas desempenho próximo, mas também maior flexibilidade de design e custos mais previsíveis para os data centers. Se essa abordagem vingar, abre-se espaço para novas aplicações de IA e para arquiteturas que até agora pareciam inviáveis.

Fonte: Hardware.com.br

Leia também