Pular para o conteúdo
A outra bolha da IA
Tecnologia
outra
bolha
tecnologia

A outra bolha da IA

Publicado em 12 de janeiro de 2026 às 12:00

6 min de leitura

S Só entre julho e setembro, a OpenAI teve US$ 11,5 bilhões de prejuízo. No ritmo atual, precisará queimar quase US$ 50 bilhões por ano para continuar a existir. É que a grande maioria dos 800 milhões de usuários do ChatGPT opta pela versão gratuita, mas computar as respostas dele requer muito processamento e energia elétrica. Custos que o atual faturamento da empresa, US$ 13 bilhões por ano, está longe de cobrir. Mas ela não parece preocupada, e quer dobrar a aposta.

Ou melhor, “trintuplicar”. Em novembro seu CEO, Sam Altman, anunciou que pretende investir US$ 1,4 trilhão em novos datacenters ao longo dos próximos oito anos. “Como uma empresa com receita de US$ 13 bilhões pode se comprometer a gastar US$ 1,4 trilhão?”, perguntou o investidor Brad Gersten, dono de uma fração da OpenAI, a Sam Altman durante um podcast.

Visivelmente irritado, o CEO deu uma resposta atravessada: “Se você quiser vender sua participação, eu arranjo um comprador. Chega”. Em novembro, o diretor financeiro da OpenAI disse que o governo americano deveria apoiar financeiramente a empresa – o que reforçou os temores com relação à sustentabilidade econômica dela.

Um eventual colapso da dona do ChatGPT teria impacto devastador. Segundo cálculos do economista Jason Furman, da Universidade Harvard, os investimentos em IA e datacenters foram responsáveis por quase todo o crescimento econômico dos EUA durante o primeiro semestre de 2025. Retirando esses itens da conta, o PIB do país teria crescido mísero 0,1% no período (não 3,2%, como ocorreu). O Bank of America estima que só os investimentos de quatro big techs, Microsoft, Amazon, Google e Meta, tenham somado US$ 344 bilhões no ano passado, o equivalente a 1,1% do PIB americano. A maior economia do mundo está claramente pendurada na IA – e há uma bolha financeira se formando nesse setor.

Esse nível colossal de investimento se apoia numa esperança: de que levará ao surgimento de IAs superinteligentes, capazes de assumir boa parte das tarefas na sociedade e elevar a humanidade a um novo patamar de desenvolvimento. Em vez de pagar por um médico ou advogado, por exemplo, você seria atendido por uma IA competente e confiável, enquanto algoritmos avançados encontrariam soluções para problemas tão complexos quanto o aquecimento global, a fusão nuclear e a cura do câncer.

Pode até acontecer um dia. Mas, por enquanto, é mera fantasia. As IAs continuam “alucinando”, gerando respostas com dados falsos, inventados. E ninguém sabe como resolver esse problema – alguns cientistas acreditam, inclusive, que ele seja uma característica intrínseca aos “grandes modelos de linguagem” (LLMs, na sigla em inglês) como o ChatGPT, o Gemini e demais IAs de conversação, sem conserto possível.

Um estudo (1) do MIT, publicado em julho, apontou que 95% das empresas que incorporaram IA às suas atividades obtiveram zero retorno do investimento. Já se passaram três anos desde o surgimento do ChatGPT e a consequente explosão da IA, mas ela ainda não entrega os ganhos de produtividade com a rapidez e a intensidade esperadas. Seu futuro parece tão incerto que as big techs, até recentemente tão empenhadas em prometer o surgimento de uma “inteligência artificial geral” (AGI, na sigla em inglês), equivalente à mente humana, agora vêm tentando se desvincular (2) desse termo.

Ao mesmo tempo em que a bolha financeira infla, e parece se aproximar de uma ruptura, há outra bolha se formando: a do desespero, com a OpenAI adotando práticas questionáveis para tentar gerar mais receita. Ao apresentar o Sora, seu algoritmo de geração de vídeos, em fevereiro de 2024, a empresa disse que não iria liberá-lo enquanto não entendesse os riscos envolvidos – afinal, essa tecnologia permite que qualquer pessoa produza deepfakes (vídeos forjados), com consequências terríveis para a sociedade.

Mas ao lançar a versão pública do Sora, em setembro de 2025, a OpenAI foi pelo caminho oposto. Na verdade, ela chutou o balde: a IA veio no formato de uma rede social só com deepfakes, e sem qualquer restrição relevante.

Logo começaram a surgir ondas de vídeos grotescos, com figuras públicas falando coisas que elas jamais disseram, ou versões pirateadas de personagens protegidos por direitos autorais. Isso motivou protestos da família do ativista Martin Luther King (retratado de modo racista em vídeos gerados pela IA) e do governo do Japão (que se queixou do uso indevido de elementos dos animes, mangás e games do país), entre diversos outros.

Não deve ficar nisso. A OpenAI anunciou que irá liberar, no primeiro trimestre deste ano, um “modo adulto” do ChatGPT, no qual será possível ter conversas eróticas com o bot. Até aí, ok, é só mais um serviço pornô. O problema é que, em vez de pedir um cartão de crédito ou documento para evitar que crianças acessem esse modo, a OpenAI disse que irá usar um algoritmo – o próprio bot irá tentar determinar, pelo tom do papo, se o humano do outro lado é menor de idade. Parece confiável?

Dois estudos recentes (3), publicados pela Universidade Stanford e pelo Instituto de Tecnologia de Zurique, demonstraram que as IAs são sicofantas, ou seja, elas buscam agradar o usuário a todo custo, ainda que isso signifique concordar com coisas erradas ou malucas que ele esteja dizendo.

Essa tendência pode levar a desfechos trágicos – como o caso do executivo Stein-Erik Soelberg, de 56 anos, que assassinou a mãe nos EUA após ser estimulado pelo ChatGPT (o bot concordou com uma teoria estapafúrdia, proposta por Soelberg, de que a velhinha de 83 anos conspirava contra ele). Mas a OpenAI segue apostando na sicofância: em novembro lançou uma atualização que, segundo ela, deixa o ChatGPT “mais caloroso e empático”(4).

Uma análise (5) publicada pela ONG inglesa Center for Countering Digital Hate mostrou que o algoritmo GPT-5, o “cérebro” mais recente do ChatGPT, é mais perigoso do que seu antecessor, o GPT-4“o”: dá mais respostas que podem endossar ou incentivar suicídio, distúrbios alimentares e uso de substâncias ilegais.

Por onde a OpenAI for, o resto do setor irá. Os próximos anos poderão reeditar o pior momento das big techs, no final dos anos 2010 – quando o Facebook foi flagrado manipulando o próprio feed e, através da empresa Cambridge Analytica, usado para tentar manipular eleições. A indústria ensaia repetir suas maiores transgressões. Só que, agora, turbinadas por IA – e mil vezes piores.

Fontes (1)”State of AI in business 2025 – the genAI divide”; (2)”It’s the great AGI rebrand”, The Verge; (3)”Sycophantic AI decreases prosocial

intentions and promotes dependence” e “Brokenmath: a benchmark for sycophancy in theorem proving with LLMs”; (4)”GPT-5.1: um ChatGPT mais inteligente e mais conversacional”; (5) “The illusion of AI safety: testing OpenAI’s new safe completions approach to chatbot safety.

Fonte: Superinteressante

Leia também