A Economia de AI de (15.7 trilhões) Precisa de Mais do que Apenas Poder de Computação
A inteligência artificial continua a remodelar o panorama tecnológico, com projeções da indústria a sugerir que a tecnologia poderá injectar (15.7 trilhões) na economia global até ao final da década. Esta estimativa divide-se em $35 6.6 trilhões$100 provenientes de ganhos de produtividade e (9.1 trilhões) de aplicações para consumidores. A corrida para construir infraestruturas de IA—particularmente data centers—criou uma procura sem precedentes por hardware especializado.
Nos últimos três anos, a conversa tem-se centrado nas GPUs. A Nvidia capturou mais de 90% do mercado de aceleradores de IA ao oferecer unidades de processamento gráfico que se destacam em cálculos paralelos necessários para treinar grandes modelos de linguagem como o ChatGPT e o Llama. O domínio da empresa parecia inabalável, tornando-se a escolha padrão para hyperscalers que constroem infraestruturas de IA.
Mas aqui está o que a maioria dos investidores não percebeu: a verdadeira tendência quente de IA não é sobre qual processador ganha.
Por Que os Chips Personalizados Não Resolvem Tudo
Uma mudança já está em curso. Hyperscalers incluindo a Alphabet, Meta Platforms, e outros estão a implementar cada vez mais processadores de IA personalizados, desenhados pela Broadcom e Marvell Technology. Estes circuitos integrados específicos para aplicações ASICs oferecem vantagens sobre as GPUs tradicionais—são mais eficientes em termos de energia para tarefas específicas e proporcionam melhor desempenho por watt.
Os números sugerem que esta tendência está a ganhar impulso. A Broadcom projeta que a sua receita de IA irá duplicar para 8.2 mil milhões no trimestre atual, impulsionada por contratos massivos com a OpenAI, Meta, e Google. A firma de pesquisa de mercado TrendForce prevê que as remessas de processadores de IA personalizados poderão aumentar 44% em 2026, enquanto as remessas de GPUs deverão crescer apenas 16%.
Ainda assim, mesmo com a crescente adoção de processadores personalizados, eles enfrentam uma limitação crítica que nem os fabricantes de chips nem a maioria dos analistas abordaram adequadamente.
A Restrição Não Dita: Largura de Banda de Memória
Tanto as GPUs da Nvidia como os processadores personalizados da Broadcom partilham um requisito comum: enormes quantidades de memória de alta largura de banda HBM. Este tipo de memória especializada lida com a transferência de dados a velocidades que os chips de memória tradicionais não conseguem igualar, consumindo menos energia e introduzindo uma latência mínima.
HBM não é uma característica de luxo—é a infraestrutura essencial que impede que o desempenho de GPUs e ASICs seja limitado. Sem capacidade suficiente de HBM, mesmo os processadores mais potentes oferecem retornos reduzidos em ambientes de data center.
As implicações são marcantes. A Micron Technology, uma das principais no mercado global de memória, estima que o mercado de HBM irá expandir de bilhões em 2025 para bilhões até 2028. Esta trajetória reflete o grave desequilíbrio entre a oferta atual de HBM e a procura crescente dos fabricantes de aceleradores de IA.
Porque Isto Importa para 2026
A escassez de oferta já é visível no desempenho financeiro da Micron. A empresa reportou um aumento de 57% na receita ano após ano, atingindo 13.6 mil milhões no primeiro trimestre fiscal de 2026 terminado a 27 de novembro, com lucros não-GAAP a subir 2,7 vezes em relação ao ano anterior, para $4,78 por ação.
Mais notavelmente, a administração da Micron anunciou que “concluiu acordos sobre preço e volume para toda a oferta de HBM de 2026”, ou seja, a empresa esgotou toda a sua capacidade de produção para o próximo ano. Esta combinação de volumes mais elevados e preços premium levou os analistas a projetar um aumento de 288% nos lucros da Micron, para $32,14 por ação.
Para os investidores que acompanham a narrativa quente de infraestruturas de IA, isto revela uma verdade essencial: as empresas que controlam a produção de HBM detêm as chaves do mercado de aceleração de IA, não aquelas que constroem os processadores em si. A avaliação da Micron—atualmente abaixo de 10 vezes os lucros futuros—reflete uma janela de oportunidade antes de o mercado reconhecer totalmente esta dinâmica.
À medida que a adoção de GPUs e ASICs acelera ao longo de 2026, a verdadeira limitação não será o poder de computação—será a infraestrutura de memória que permite que esse poder realmente seja utilizado.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
O verdadeiro obstáculo que impulsiona a infraestrutura de IA de alta performance: por que a memória, não os processadores, define 2026
A Economia de AI de (15.7 trilhões) Precisa de Mais do que Apenas Poder de Computação
A inteligência artificial continua a remodelar o panorama tecnológico, com projeções da indústria a sugerir que a tecnologia poderá injectar (15.7 trilhões) na economia global até ao final da década. Esta estimativa divide-se em $35 6.6 trilhões$100 provenientes de ganhos de produtividade e (9.1 trilhões) de aplicações para consumidores. A corrida para construir infraestruturas de IA—particularmente data centers—criou uma procura sem precedentes por hardware especializado.
Nos últimos três anos, a conversa tem-se centrado nas GPUs. A Nvidia capturou mais de 90% do mercado de aceleradores de IA ao oferecer unidades de processamento gráfico que se destacam em cálculos paralelos necessários para treinar grandes modelos de linguagem como o ChatGPT e o Llama. O domínio da empresa parecia inabalável, tornando-se a escolha padrão para hyperscalers que constroem infraestruturas de IA.
Mas aqui está o que a maioria dos investidores não percebeu: a verdadeira tendência quente de IA não é sobre qual processador ganha.
Por Que os Chips Personalizados Não Resolvem Tudo
Uma mudança já está em curso. Hyperscalers incluindo a Alphabet, Meta Platforms, e outros estão a implementar cada vez mais processadores de IA personalizados, desenhados pela Broadcom e Marvell Technology. Estes circuitos integrados específicos para aplicações ASICs oferecem vantagens sobre as GPUs tradicionais—são mais eficientes em termos de energia para tarefas específicas e proporcionam melhor desempenho por watt.
Os números sugerem que esta tendência está a ganhar impulso. A Broadcom projeta que a sua receita de IA irá duplicar para 8.2 mil milhões no trimestre atual, impulsionada por contratos massivos com a OpenAI, Meta, e Google. A firma de pesquisa de mercado TrendForce prevê que as remessas de processadores de IA personalizados poderão aumentar 44% em 2026, enquanto as remessas de GPUs deverão crescer apenas 16%.
Ainda assim, mesmo com a crescente adoção de processadores personalizados, eles enfrentam uma limitação crítica que nem os fabricantes de chips nem a maioria dos analistas abordaram adequadamente.
A Restrição Não Dita: Largura de Banda de Memória
Tanto as GPUs da Nvidia como os processadores personalizados da Broadcom partilham um requisito comum: enormes quantidades de memória de alta largura de banda HBM. Este tipo de memória especializada lida com a transferência de dados a velocidades que os chips de memória tradicionais não conseguem igualar, consumindo menos energia e introduzindo uma latência mínima.
HBM não é uma característica de luxo—é a infraestrutura essencial que impede que o desempenho de GPUs e ASICs seja limitado. Sem capacidade suficiente de HBM, mesmo os processadores mais potentes oferecem retornos reduzidos em ambientes de data center.
As implicações são marcantes. A Micron Technology, uma das principais no mercado global de memória, estima que o mercado de HBM irá expandir de bilhões em 2025 para bilhões até 2028. Esta trajetória reflete o grave desequilíbrio entre a oferta atual de HBM e a procura crescente dos fabricantes de aceleradores de IA.
Porque Isto Importa para 2026
A escassez de oferta já é visível no desempenho financeiro da Micron. A empresa reportou um aumento de 57% na receita ano após ano, atingindo 13.6 mil milhões no primeiro trimestre fiscal de 2026 terminado a 27 de novembro, com lucros não-GAAP a subir 2,7 vezes em relação ao ano anterior, para $4,78 por ação.
Mais notavelmente, a administração da Micron anunciou que “concluiu acordos sobre preço e volume para toda a oferta de HBM de 2026”, ou seja, a empresa esgotou toda a sua capacidade de produção para o próximo ano. Esta combinação de volumes mais elevados e preços premium levou os analistas a projetar um aumento de 288% nos lucros da Micron, para $32,14 por ação.
Para os investidores que acompanham a narrativa quente de infraestruturas de IA, isto revela uma verdade essencial: as empresas que controlam a produção de HBM detêm as chaves do mercado de aceleração de IA, não aquelas que constroem os processadores em si. A avaliação da Micron—atualmente abaixo de 10 vezes os lucros futuros—reflete uma janela de oportunidade antes de o mercado reconhecer totalmente esta dinâmica.
À medida que a adoção de GPUs e ASICs acelera ao longo de 2026, a verdadeira limitação não será o poder de computação—será a infraestrutura de memória que permite que esse poder realmente seja utilizado.