
Surreal: OpenAI gastou US$ 7 bilhões em recursos computacionais em 2024
Publicado em 15 de outubro de 2025 às 11:59
3 min de leituraA OpenAI desembolsou aproximadamente US$ 7 bilhões em recursos computacionais durante 2024, mas a revelação mais surpreendente não está no valor astronômico: está em como esse dinheiro foi usado. Dados recentes da Epoch AI, organização de pesquisa especializada em inteligência artificial, mostram que a maior parte dessa fortuna foi dedicada a experimentos, pesquisas exploratórias e rodadas de treinamento descartadas — não aos modelos que efetivamente chegaram ao mercado.
A descoberta desafia a percepção comum sobre o desenvolvimento de IA. Quando pensamos em custos bilionários, a tendência é imaginar treinos épicos de modelos como o GPT-4.5 ou o o3. Mas a realidade é mais nuançada: apenas uma pequena fração dos US$ 7 bilhões foi destinada aos treinos finais dos modelos lançados entre meados de 2024 e o primeiro trimestre de 2025.
Os números por trás da conta
Do montante total, cerca de US$ 5 bilhões foram classificados como gastos de P&D (pesquisa e desenvolvimento), englobando toda a computação utilizada em pesquisa básica, experimentos e treinamentos. Outros US$ 2 bilhões foram destinados à inferência — o processamento que roda quando usuários reais interagem com modelos como o ChatGPT.
A metodologia da Epoch AI combinou relatórios financeiros divulgados por veículos como The Information e The New York Times com estimativas próprias sobre o custo de treinar modelos específicos. A organização analisou documentos compartilhados com investidores em setembro de 2024, que incluíam projeções para o quarto trimestre do ano.
Segundo a Epoch AI, dentro daqueles US$ 5 bilhões de P&D, aproximadamente US$ 4,5 bilhões foram gastos em “outros gastos de P&D” — uma categoria que inclui pesquisa fundamental, rodadas experimentais de treinamento (conhecidas como “derisking runs”), treinos para modelos não lançados e iterações descartadas. Apenas US$ 480 milhões foram para os treinos finais dos modelos que efetivamente foram publicados.
Quanto custa treinar um GPT-4.5
O treino final do GPT-4.5, o modelo mais caro do período analisado, custou entre US$ 170 milhões e US$ 890 milhões, com um intervalo de confiança de 90%. A Epoch AI usou uma abordagem direta para calcular esse valor: estimou o tamanho do cluster de treinamento, a duração do processo e o custo por hora de GPU.
O GPT-4.5 foi treinado no cluster Goodyear da Microsoft, localizado no Arizona, utilizando entre 40 mil e 100 mil GPUs Nvidia H100. O processo levou de 90 a 165 dias, com um custo médio de US$ 1,50 a US$ 3 por hora de H100 — alinhado à tendência da indústria, que gira em torno de US$ 2 por hora.
Os outros modelos lançados no período — incluindo GPT-4o, GPT-4o mini, Sora Turbo e a série o (o1, o3) — somaram entre US$ 24 milhões e US$ 435 milhões em custos de treino final, também com 90% de confiança. Para esses modelos, a Epoch AI estimou o volume de operações de ponto flutuante (FLOP) e converteu isso em custos de nuvem usando taxas padronizadas de utilização de GPU.
O custo invisível dos experimentos
A grande descoberta está justamente no que não foi lançado. Se apenas US$ 480 milhões foram para treinos finais, isso significa que mais de 90% dos gastos de P&D foram dedicados a tentativas, testes e aprendizado. Essa dinâmica revela uma faceta pouco comentada da corrida pela IA de fronteira: a maior parte do dinheiro é queimada antes mesmo de um modelo ser considerado pronto.
Rodadas de derisking são comuns na indústria: empresas como a OpenAI realizam treinos exploratórios menores para testar arquiteturas, ajustar hiperparâmetros e validar hipóteses antes de comprometer recursos massivos em um treino de larga escala. Mas a proporção aqui é reveladora. A OpenAI está gastando bilhões para descobrir o que não funciona — um luxo que poucas organizações no mundo podem se dar.
Prejuízos bilionários e a matemática da escalada
A OpenAI encerrou 2024 com receita de US$ 3,7 bilhões e prejuízo projetado de US$ 5 bilhões. A conta não fecha — e não deveria fechar. A empresa opera em um modelo clássico de crescimento acelerado sacrificando lucratividade imediata, similar ao que Tesla, Uber e Spotify fizeram em suas fases iniciais.
Fonte: Hardware.com.br
Leia também
- Airbnb ganha novos recursos e aproxima app de rede social

Airbnb atualizou o app para ter foco em interaçãoResumo
💬 0 - “Agentes de IA não funcionam”, diz cofundador da OpenAI

Andrej Karpathy cunhou o termo “vibe coding”Resumo
💬 0 - OpenAI bloqueia geração de vídeos de Martin Luther King Jr. após família exigir controle sobre uso de IA

A OpenAI decidiu suspender imediatamente a criação de vídeos gerados por IA do líder dos direitos civis Martin Luther King Jr. em sua plataforma Sora, depois que usuários produziram conteúdos considerados desrespeitosos pela família do ativista. A medida veio a pedido do King Estate, Inc., entidade que administra o le…
💬 0