Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Stratechery derruba a teoria da bolha de IA, o que devemos fazer com IA?
Agent Over Bubbles
Por Ben Thompson, Stratechery Traduzido por Peggy, BlockBeats
Por BlockBeats
Reprodução: Mars Finance
Prefácio: No contexto de contínua valorização dos investimentos em IA e narrativas industriais, a questão “há uma bolha?” tornou-se o tema central de discussões recorrentes no mercado. Por um lado, narrativas de risco extremo reforçam as preocupações sobre o controle da tecnologia; por outro, a rápida expansão dos gastos de capital e os níveis de avaliação mantêm viva a teoria da bolha. Diante dessas divergências, a avaliação do mercado apresenta uma clara incerteza.
Ben Thompson, fundador da plataforma de análise tecnológica Stratechery, que acompanha há anos a evolução da estrutura e dos modelos de negócio do setor de tecnologia, revisou sua opinião anterior sobre “se a IA está em uma bolha” durante a GTC 2026 da Nvidia: ele não vê mais como uma bolha, mas como um crescimento estrutural impulsionado por uma mudança de paradigma tecnológico.
Essa avaliação baseia-se na observação de três saltos críticos nos Modelos de Linguagem de Grande Escala (LLM). Desde que o ChatGPT demonstrou pela primeira vez suas capacidades ao mercado em 2022, os LLM evoluíram de “disponíveis, mas não confiáveis” para “capazes de raciocínio” e, posteriormente, para “executar tarefas de forma autônoma”. Especialmente no final de 2025, com o lançamento do Anthropic Opus 4.5 e do GPT-5.2-Codex da OpenAI, a carga de trabalho agentic começou a sair do conceito para a realidade.
O ponto-chave não está apenas no modelo em si, mas na emergência do “agent harness”. Os agentes desacoplam o usuário do modelo, responsáveis por orquestrar o uso do modelo, chamar ferramentas e validar resultados, transformando a IA de uma ferramenta que requer intervenção humana contínua para uma sistema de execução confiável. Essa mudança não só aumenta a confiabilidade, mas também amplia as fronteiras de aplicação da IA.
Com essa mudança de paradigma, o autor aponta que a expansão da demanda por IA não depende mais do número de usuários, mas da capacidade de cada usuário de gerenciar a sua utilização; além disso, a carga de trabalho agentic possui características de “ganhador leva tudo”, impulsionando a demanda por hardware de alto desempenho e criando oportunidades estruturais para fabricantes de chips e provedores de nuvem.
Sob esse framework, os altos investimentos de capital atuais deixam de ser meras apostas especulativas no futuro e passam a refletir necessidades reais. À medida que a IA evolui de uma “ferramenta auxiliar” para uma “infraestrutura de execução”, seu impacto econômico talvez esteja apenas começando a se manifestar.
A seguir, o texto original:
No passado, eu preferia a segunda visão, e até acreditava que, em certos momentos, uma bolha nem sempre é algo ruim.
Mas, neste momento, ao chegar em março de 2026, na abertura da GTC da Nvidia, minha opinião mudou: não vejo mais como uma bolha. (E, ironicamente, essa própria avaliação pode ser justamente um sinal de bolha.)
As três fases de paradigma dos LLM
Nas últimas semanas, ao discutir os resultados financeiros da Nvidia e da Oracle, mencionei várias vezes que os LLM passaram por três saltos críticos.
Primeira fase: ChatGPT
O primeiro ponto de inflexão foi o lançamento do ChatGPT em novembro de 2022, algo quase óbvio de mencionar. Apesar de modelos de linguagem baseados em Transformer já existirem desde 2017 e suas capacidades continuarem a evoluir, eles foram subestimados por muito tempo. Até outubro de 2022, eu, em uma entrevista para a Stratechery, acreditava que, embora essa tecnologia fosse impressionante, faltava-lhe um produto ou impulso empreendedor.
Mas poucas semanas depois, tudo mudou radicalmente. O ChatGPT fez o mundo perceber, de verdade, o potencial dos LLMs.
No entanto, as versões iniciais também deixaram duas impressões marcantes, frequentemente citadas pelos “teóricos da bolha”:
Primeiro, os modelos frequentemente erravam, e às vezes inventavam respostas “fantasiosas” quando não sabiam a resposta. Isso os tornava mais uma “ferramenta de demonstração de habilidade” — impressionantes, mas não confiáveis.
Segundo, mesmo assim, eram extremamente úteis, desde que o usuário soubesse como usá-los e estivesse disposto a verificar e corrigir as saídas continuamente.
Segunda fase: o1
O segundo ponto de inflexão ocorreu em setembro de 2024, com o lançamento do modelo o1 pela OpenAI. Naquela época, os LLMs já tinham melhorado significativamente devido a modelos base mais avançados e técnicas de pós-treinamento, produzindo resultados mais precisos e com menos alucinações.
Mas a grande inovação do o1 foi: ele “pensava” antes de responder.
Modelos tradicionais de linguagem dependem de uma trajetória de geração, e se erram na inferência, continuam errando até o final. Essa é a fraqueza fundamental do “auto-regressivo”. Já os modelos de raciocínio avaliam suas próprias respostas, gerando uma resposta, avaliando sua correção e, se necessário, tentando outros caminhos.
Isso significa que o modelo começa a gerenciar erros de forma proativa, reduzindo a necessidade de intervenção humana. O resultado é bastante significativo. Se o avanço do ChatGPT foi tornar os LLMs “usáveis”, o do o1 foi torná-los “confiáveis”.
Terceira fase: Agent (Opus 4.5 / Codex)
No final de 2025, ocorreu o terceiro salto.
Em novembro de 2025, a Anthropic lançou o Opus 4.5, inicialmente com resposta morna. Mas, em dezembro, o Claude Code, equipado com esse modelo, demonstrou capacidades inéditas; quase ao mesmo tempo, a OpenAI lançou o GPT-5.2-Codex, com desempenho semelhante.
Embora o conceito de “agent” já fosse discutido anteriormente, foi nesse momento que eles realmente começaram a realizar tarefas, inclusive complexas, que levavam horas, e de forma correta.
O ponto-chave não está apenas no modelo, mas na camada de controle (harness), que orquestra o uso do modelo, chama ferramentas e gerencia o fluxo de execução. Em outras palavras, o usuário não opera diretamente o modelo, mas define objetivos, que o Agent gerencia, chama ferramentas, executa tarefas e valida resultados.
Por exemplo, na programação:
· Primeira fase: o modelo gera código
· Segunda fase: o modelo raciocina durante a geração
· Terceira fase: o Agent gera código → realiza testes → executa automaticamente → se errado, repete, sem intervenção contínua do usuário.
Isso significa que as limitações do ChatGPT estão sendo sistematicamente resolvidas, com maior precisão, raciocínio mais forte e mecanismos de validação automática.
A única questão que resta é: para que exatamente usar isso?
Reitero esses três pontos de inflexão para explicar por que toda a indústria está enfrentando uma demanda de computação extremamente alta e por que os investimentos massivos de capital são justificáveis.
As três fases de paradigma demandam diferentes níveis de poder de processamento:
· Primeira fase: treinamento consome muita computação, mas inferência é mais barata
· Segunda fase: custo de inferência dispara (mais tokens + maior frequência de uso)
· Terceira fase (Agent): múltiplas chamadas ao modelo de inferência, além do próprio Agent, que também consome recursos (até mais em CPU), levando a uma explosão no uso.
Mas o mais importante é a mudança na estrutura de demanda, que tem sido subestimada.
Hoje, há muito mais usuários de chatbots do que de Agents, e muitos ainda não usam IA de forma plena. O motivo é que usar IA exige “proatividade”. Os LLMs são ferramentas, sem objetivos ou vontade própria, só podem ser acionados de forma ativa.
O Agent muda isso: reduz a necessidade de iniciativa humana. No futuro, uma pessoa poderá comandar múltiplos Agents ao mesmo tempo.
Isso significa que, mesmo com poucos indivíduos com “proatividade”, a demanda por poder de processamento e produção econômica será enorme.
A IA ainda precisa de “humanos para conduzir”, mas não de “muitos humanos”.
A disposição de pagar por IA no consumo final é limitada, o que já se torna claro. Quem realmente está disposto a pagar por aumento de produtividade são as empresas.
O que mais entusiasma as empresas não é apenas a eficiência, mas a possibilidade de substituir mão de obra por IA de forma mais eficiente.
Na prática, as grandes empresas geralmente têm poucos que impulsionam os negócios, enquanto a organização como um todo é grande, com altos custos de coordenação. O papel do Agent é amplificar a influência dessas pessoas, ao mesmo tempo em que reduz atritos organizacionais.
O resultado é: “menos pessoas → maior produtividade → custos menores”. Por isso, os futuros cortes de pessoal podem não ser apenas ajustes cíclicos, mas mudanças estruturais.
As empresas passarão a refletir se, durante a pandemia, contrataram demais, e se, na era da IA, talvez nem precisem de tantos funcionários.
Por que isso não é uma bolha?
Sob essa perspectiva, a lógica de que “não é uma bolha” fica mais clara:
Os defeitos centrais dos LLMs estão sendo resolvidos continuamente por melhorias na arquitetura e na capacidade computacional.
A barreira para impulsionar a demanda está caindo.
Os benefícios do Agent não são apenas redução de custos, mas também aumento de receita.
Assim, não é difícil entender por que todos os provedores de nuvem afirmam que a oferta de capacidade computacional é insuficiente e continuam a aumentar significativamente seus investimentos.
Agent e a reestruturação da cadeia de valor
Outro ponto crucial é: se os modelos se tornarem produtos finais, a OpenAI e a Anthropic ainda poderão lucrar?
A visão tradicional diz que não, mas o Agent muda essa perspectiva. O valor real não está apenas no modelo, mas na integração de “modelo + sistema de controle”.
O lucro costuma ficar na camada de integração, e não nos módulos substituíveis. Como a Apple, cujo hardware não é simplesmente um produto, mas uma parte de uma integração profunda com o software. Da mesma forma, o Agent exige uma colaboração estreita entre modelo e harness, tornando a OpenAI e a Anthropic atores-chave na cadeia de valor, ao invés de componentes substituíveis.
A mudança da Microsoft é um sinal: ela antes defendia que “modelos podem ser substituídos”, mas, ao lançar um produto de Agent real, teve que abandonar essa ideia.
Isso indica que os modelos podem não se tornar completamente commodities, pois o sucesso do Agent depende de uma capacidade de integração.
O paradoxo final
Preciso retornar ao paradoxo inicial.
Sempre acreditei que, enquanto as pessoas continuarem preocupadas com bolhas, ainda não estamos em uma. A verdadeira bolha é aquela na qual ninguém mais duvida.
E, neste momento, minha conclusão é: não estamos em uma bolha.
Porém, se “dizer que não é uma bolha” por si só for uma prova de que é uma bolha, então assim seja.