
NVIDIA e Kioxia planejam SSDs até 100 vezes mais rápidos que os atuais
Publicado em 14 de setembro de 2025 às 12:47
2 min de leituraA NVIDIA e a japonesa Kioxia estão unindo forças em um projeto que pode reinventar o futuro da inteligência artificial: SSDs capazes de alcançar velocidades até 100 vezes superiores às soluções de armazenamento atuais, informa a Nikkei. O plano não é apenas turbinar a performance, mas criar uma nova arquitetura de memória capaz de quebrar a dependência das tradicionais HBM, que reinam no setor de IA.
A corrida pelos 200 milhões de IOPS
O objetivo da NVIDIA é ousado: atingir 200 milhões de operações de entrada/saída por segundo (IOPS) em soluções SSD. Para entender o impacto, trata-se de um patamar cem vezes acima da média dos SSDs convencionais usados hoje em servidores e PCs.
A ideia é simples na teoria, mas complexa na prática. A Kioxia, líder em memória flash, prepara uma solução em duas etapas: usar dois SSDs, cada um com 100 milhões de IOPS, trabalhando de forma sincronizada para chegar à meta da NVIDIA.
PCIe 7.0: a via expressa dos dados
Um dos segredos dessa aposta é o uso do PCIe 7.0, a nova geração de interface que entrega largura de banda muito acima do PCIe 5.0 encontrado nos PCs gamer atuais. Essa conexão ultrarrápida será essencial para lidar com os volumes massivos de dados que a IA exige.
Mais do que isso, a NVIDIA planeja montar os SSDs diretamente na GPU, evitando gargalos comuns nas arquiteturas tradicionais. A mudança, no entanto, exige um redesenho completo de hardware, criando um ecossistema inédito do zero.
As armas secretas da Kioxia: HBF e XL-Flash
Para chegar a esse patamar, a Kioxia aposta em duas tecnologias próprias:
• HBF (High-Bandwidth Flash): derivada de pesquisas da SanDisk, promete superar as limitações da NAND convencional e escalar até múltiplos terabytes por chip.
• XL-Flash: versão avançada de NAND de baixa latência, pensada para cargas críticas no data center.
Essas soluções atendem a uma demanda clara: mais capacidade, menos gargalos e novas formas de alimentar sistemas de inteligência artificial em treinamento e inferência.
Além da HBM: custo e flexibilidade em jogo
O avanço representa um movimento estratégico da NVIDIA. A ideia é reduzir a dependência das memórias HBM, que, apesar de extremamente rápidas, são caras e difíceis de escalar em volume.
NAND de nova geração poderia garantir não apenas desempenho próximo, mas também maior flexibilidade de design e custos mais previsíveis para os data centers. Se essa abordagem vingar, abre-se espaço para novas aplicações de IA e para arquiteturas que até agora pareciam inviáveis.
Fonte: Hardware.com.br
Leia também
- TeamGroup apresenta novos SSDs PCIe 5.0 com velocidade de até 10.000MB/s

A TeamGroup lançou nesta semana sua nova linha NV10000 de SSDs PCIe 5.0. São três novas variantes em diferentes opções de capacidade que oferecem até 10.000MB/s de velocidade, trazendo bem mais performance que a geração passada do PCIe, mas buscando uma faixa de preço mais acessível do que drives realmente high-end.
💬 0 - NVIDIA e TSMC fabricam o chip de IA mais avançado do mundo nos EUA pela primeira vez

Jensen Huang, CEO da NVIDIA, visitou a fábrica da TSMC em Phoenix, Arizona, na última sexta-feira (17) para celebrar um marco histórico: a produção do primeiro wafer Blackwell em solo americano. O evento marcou a entrada em produção em volume da arquitetura Blackwell, considerada um dos chips mais complexos já criados…
💬 0 - NVIDIA RTX 5090 supera AMD e Apple rodando modelos locais de linguagem da OpenAI

O Llama.cpp publicou seus próprios testes do gpt-oss-20b, mostrando que a GeForce RTX 5090 liderou com impressionantes 282 tok/s. Isso em comparação com o Mac M3 Ultra (116 tok/s) e o AMD 7900 XTX (102 tok/s).
💬 0