推动火热AI基础设施的真正瓶颈:为何是内存,而非处理器,决定了2026年

15.7万亿美元的AI经济不仅仅需要算力

人工智能持续重塑科技格局,行业预测显示,到本十年结束时,这项技术可能为全球经济注入15.7万亿美元。这一估算细分为生产力提升带来的6.6万亿美元和消费者应用带来的9.1万亿美元。建设AI基础设施的热潮——尤其是数据中心——带来了前所未有的对专业硬件的需求。

在过去三年中,讨论的焦点一直是GPU。英伟达通过提供擅长并行计算的图形处理单元,占据了超过90%的AI加速器市场份额,这些GPU在训练大型语言模型如ChatGPT和Llama时表现出色。该公司的主导地位似乎牢不可破,成为构建AI基础设施的超大规模企业的默认选择。

但大多数投资者忽略了一个关键点:真正的AI热潮并不在于哪个处理器赢。

定制芯片并不能解决一切

变革已经在进行中。包括Alphabet、Meta Platforms在内的超大规模企业,正越来越多地部署由Broadcom和Marvell Technology设计的定制AI处理器。这些应用特定集成电路(ASICs)相较于传统GPU具有优势——它们在针对性任务上更节能,性能/功耗比更优。

数据显示,这一趋势正逐渐加速。Broadcom预计其AI相关收入将在本季度翻倍,达到82亿美元,主要得益于OpenAI、Meta和Google的大型合同。市场调研公司TrendForce预测,2026年定制AI处理器的出货量可能激增44%,而GPU出货量预计仅增长16%。

然而,即使定制处理器逐步占据市场,它们也面临一个关键限制,既没有芯片制造商,也没有大多数分析师充分关注。

未被提及的限制:内存带宽

英伟达的GPU和Broadcom的定制处理器都面临一个共同需求:大量高带宽内存(HBM)。这种专用内存类型能以传统内存芯片无法匹敌的速度传输数据,同时消耗更少的电力,延迟也极低。

HBM不是奢侈功能——它是防止GPU和ASIC性能瓶颈的基础设施。没有足够的HBM容量,即使是最强大的处理器在数据中心环境中也会表现不佳,收益减半。

其影响令人震惊。全球存储市场的领导者美光科技估计,HBM市场将从2025年的$35 十亿$100 增长到2028年的(十亿)。这一趋势反映出当前HBM供应与AI加速器制造商激增的需求之间的严重失衡。

这对2026年意味着什么

供应紧张已经在美光的财务表现中显现。公司在2026财年第一季度(截止11月27日)报告收入同比增长57%,达到136亿美元,非GAAP每股收益同比跃升2.7倍,达到4.78美元。

最引人注目的是,美光管理层宣布“已完成2026年全年HBM供应的价格和数量协议”,意味着公司已售罄未来一年的全部产能。这种高产量和高溢价的结合,使分析师预测美光的每股收益将增长288%,达到32.14美元。

对于追踪火热AI基础设施话题的投资者来说,这揭示了一个本质真理:掌控HBM生产的公司才是AI加速市场的关键,而不是那些制造处理器的公司。美光的估值——目前低于未来收益的10倍——反映出在市场充分认识到这一动态之前的一个机会窗口。

随着GPU和ASIC在2026年加速普及,真正的限制将不再是算力,而是支撑算力发挥的内存基础设施。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)