Pular para o conteúdo
Novo “AI SSD” de NVIDIA e SK hynix promete desempenho 10× maior e preocupa mercado de NAND
Computação
novo
ssd
nvidia
hynix
promete
desempenho

Novo “AI SSD” de NVIDIA e SK hynix promete desempenho 10× maior e preocupa mercado de NAND

Publicado em 17 de dezembro de 2025 às 11:02

2 min de leitura

A NVIDIA e a SK hynix estão trabalhando juntas no desenvolvimento de um novo tipo de SSD voltado especificamente para cargas de trabalho de inferência em inteligência artificial, um movimento que pode redesenhar o papel do armazenamento em Data Centers e passar de alerta laranja para vermelho no mercado global de memória NAND.

O projeto, conhecido internamente como Storage Next, busca obter um salto expressivo de desempenho em operações de entrada e saída, com números que superam em larga escala os SSDs corporativos atuais.

A iniciativa acontece em um momento delicado em que o foco da indústria de IA começa a migrar do treinamento de modelos para a inferência em larga escala, exigindo arquiteturas capazes de lidar com volumes massivos de parâmetros, latência reduzida e eficiência energética mais rigorosa.

O que é o “AI SSD” e por que ele existe?

Segundo informações divulgadas pela imprensa sul-coreana, o chamado AI SSD é um dispositivo de armazenamento baseado em NAND Flash, mas projetado desde a origem para atender padrões de acesso típicos de inferência de grandes modelos.

Diferentemente dos SSDs tradicionais, que priorizam uso geral em servidores e sistemas corporativos, essa nova categoria busca atuar como uma espécie de camada intermediária entre memória e armazenamento.

A meta técnica mais citada é ambiciosa: até 100 milhões de IOPS, um patamar cerca de dez vezes superior ao observado em SSDs enterprise amplamente utilizados hoje.

O desempenho seria alcançado por meio de uma combinação de controladores dedicados, paralelismo extremo e integração mais próxima com aceleradores de IA, especialmente GPUs da NVIDIA.

Reprodução/SK hynix

Inferência muda a lógica da infraestrutura de IA

Durante anos, a discussão sobre infraestrutura de IA esteve centrada em GPUs, HBM e DRAM. Mas com a popularização de modelos cada vez maiores e o crescimento do uso comercial de inferência, esse equilíbrio começa a mudar.

Em aplicações reais, modelos precisam acessar continuamente grandes volumes de dados e parâmetros, algo que ultrapassa a capacidade econômica e física das memórias tradicionais.

É a partir desse panorama que o AI SSD está sendo concebido: ele funcionaria como um nível de pseudo-memória, mais lento que DRAM ou HBM, porém muito mais denso, escalável e eficiente do ponto de vista energético. A proposta é reduzir gargalos de I/O e diminuir o tempo que GPUs passam ociosas aguardando dados.

Colaboração estratégica entre NVIDIA e SK hynix

A parceria entre NVIDIA e SK hynix tem raízes fortes: fabricante sul-coreana já é uma das principais fornecedoras globais de DRAM, NAND e HBM, enquanto a NVIDIA domina o ecossistema de hardware e software para IA.

Fonte: Adrenaline

Leia também