## 15.7兆ドルのAI経済は単なる計算能力以上のものを必要とする人工知能は引き続き技術の風景を変革しており、業界の予測ではこの技術が10年の終わりまでに15.7兆ドルを世界経済に注入する可能性があると示唆しています。この推定は、生産性向上から6.6兆ドル、消費者向けアプリケーションから9.1兆ドルに分かれています。AIインフラ、特にデータセンターの構築に対する急速な取り組みは、特殊なハードウェアに対する前例のない需要を生み出しています。過去3年間、会話はGPUに集中してきました。Nvidiaは、ChatGPTやLlamaのような大規模言語モデルのトレーニングに必要な並列計算に優れるグラフィックス処理ユニットを提供することで、AIアクセラレータ市場の90%以上を占めました。同社の支配は揺るぎないものと見なされ、AIインフラを構築するハイパースケーラーのデフォルトの選択肢となっていました。しかし、多くの投資家が見落としていたのは、真のホットなAIトレンドはどのプロセッサが勝つかということではないという点です。## カスタムチップがすべてを解決しない理由すでに変化の兆しが見えています。AlphabetやMeta Platformsを含むハイパースケーラーは、BroadcomやMarvell Technologyが設計したカスタムAIプロセッサの導入を進めています。これらのアプリケーション特化型集積回路(ASICs)は、従来のGPUに比べてターゲットとするタスクに対してより省電力であり、ワットあたりのパフォーマンスも向上しています。数字はこのトレンドが勢いを増していることを示しています。Broadcomは、OpenAI、Meta、Googleからの巨大な契約により、今期のAI収益が2倍の82億ドルに達すると予測しています。市場調査会社TrendForceは、2026年にカスタムAIプロセッサの出荷が44%増加する一方、GPUの出荷はわずか16%の成長にとどまると予測しています。しかし、カスタムプロセッサが台頭する一方で、チップメーカーや多くのアナリストが十分に対処できていない重要な制約があります。## 口に出されない制約:メモリ帯域幅NvidiaのGPUとBroadcomのカスタムプロセッサは共通の要件を持っています。それは、大量の高帯域幅メモリ(HBM)です。この特殊なメモリタイプは、従来のメモリチップでは対応できない高速なデータ転送を可能にし、消費電力も少なく、遅延も最小限に抑えます。HBMは贅沢な機能ではなく、GPUやASICの性能がボトルネックにならないための不可欠なインフラです。十分なHBM容量がなければ、最も強力なプロセッサでさえもデータセンター環境でのリターンが減少します。その影響は顕著です。Micron Technologyは、世界のメモリ市場の主要プレーヤーであり、HBM市場は2025年の$35 十億ドルから2028年までに$100 十億ドルに拡大すると見積もっています。この軌道は、現在のHBM供給とAIアクセラレータメーカーからの急増する需要との間の深刻な不均衡を反映しています。## これが2026年にとって重要な理由供給不足はすでにMicronの財務実績に現れています。同社は、2026会計年度第1四半期(2026年11月27日に終了)に前年比57%増の136億ドルの収益を報告し、非GAAPベースの一株当たり利益は前年比2.7倍の4.78ドルに跳ね上がりました。特に注目すべきは、Micronの経営陣が「2026年の全カレンダー年のHBM供給の価格と量に関する合意を完了した」と発表したことです。これは、同社が来年の生産能力をすべて売り切ったことを意味します。この高い販売量とプレミアム価格の組み合わせにより、アナリストはMicronの利益が288%増の1株当たり32.14ドルに達すると予測しています。熱いAIインフラの動向を追う投資家にとって、これは重要な真実を明らかにしています。それは、HBMの生産をコントロールする企業がAI加速市場の鍵を握っており、プロセッサ自体を構築している企業ではないということです。Micronの評価額は、現在の先行き利益の10倍未満であり、このダイナミクスが市場に完全に認識される前の機会の窓を反映しています。GPUとASICの採用が2026年を通じて加速するにつれ、真の制約は計算能力そのものではなく、その能力を実際に機能させるメモリインフラになるでしょう。
ホットAIインフラを支える真のボトルネック:2026年を決定づけるのはプロセッサではなくメモリ
15.7兆ドルのAI経済は単なる計算能力以上のものを必要とする
人工知能は引き続き技術の風景を変革しており、業界の予測ではこの技術が10年の終わりまでに15.7兆ドルを世界経済に注入する可能性があると示唆しています。この推定は、生産性向上から6.6兆ドル、消費者向けアプリケーションから9.1兆ドルに分かれています。AIインフラ、特にデータセンターの構築に対する急速な取り組みは、特殊なハードウェアに対する前例のない需要を生み出しています。
過去3年間、会話はGPUに集中してきました。Nvidiaは、ChatGPTやLlamaのような大規模言語モデルのトレーニングに必要な並列計算に優れるグラフィックス処理ユニットを提供することで、AIアクセラレータ市場の90%以上を占めました。同社の支配は揺るぎないものと見なされ、AIインフラを構築するハイパースケーラーのデフォルトの選択肢となっていました。
しかし、多くの投資家が見落としていたのは、真のホットなAIトレンドはどのプロセッサが勝つかということではないという点です。
カスタムチップがすべてを解決しない理由
すでに変化の兆しが見えています。AlphabetやMeta Platformsを含むハイパースケーラーは、BroadcomやMarvell Technologyが設計したカスタムAIプロセッサの導入を進めています。これらのアプリケーション特化型集積回路(ASICs)は、従来のGPUに比べてターゲットとするタスクに対してより省電力であり、ワットあたりのパフォーマンスも向上しています。
数字はこのトレンドが勢いを増していることを示しています。Broadcomは、OpenAI、Meta、Googleからの巨大な契約により、今期のAI収益が2倍の82億ドルに達すると予測しています。市場調査会社TrendForceは、2026年にカスタムAIプロセッサの出荷が44%増加する一方、GPUの出荷はわずか16%の成長にとどまると予測しています。
しかし、カスタムプロセッサが台頭する一方で、チップメーカーや多くのアナリストが十分に対処できていない重要な制約があります。
口に出されない制約:メモリ帯域幅
NvidiaのGPUとBroadcomのカスタムプロセッサは共通の要件を持っています。それは、大量の高帯域幅メモリ(HBM)です。この特殊なメモリタイプは、従来のメモリチップでは対応できない高速なデータ転送を可能にし、消費電力も少なく、遅延も最小限に抑えます。
HBMは贅沢な機能ではなく、GPUやASICの性能がボトルネックにならないための不可欠なインフラです。十分なHBM容量がなければ、最も強力なプロセッサでさえもデータセンター環境でのリターンが減少します。
その影響は顕著です。Micron Technologyは、世界のメモリ市場の主要プレーヤーであり、HBM市場は2025年の$35 十億ドルから2028年までに$100 十億ドルに拡大すると見積もっています。この軌道は、現在のHBM供給とAIアクセラレータメーカーからの急増する需要との間の深刻な不均衡を反映しています。
これが2026年にとって重要な理由
供給不足はすでにMicronの財務実績に現れています。同社は、2026会計年度第1四半期(2026年11月27日に終了)に前年比57%増の136億ドルの収益を報告し、非GAAPベースの一株当たり利益は前年比2.7倍の4.78ドルに跳ね上がりました。
特に注目すべきは、Micronの経営陣が「2026年の全カレンダー年のHBM供給の価格と量に関する合意を完了した」と発表したことです。これは、同社が来年の生産能力をすべて売り切ったことを意味します。この高い販売量とプレミアム価格の組み合わせにより、アナリストはMicronの利益が288%増の1株当たり32.14ドルに達すると予測しています。
熱いAIインフラの動向を追う投資家にとって、これは重要な真実を明らかにしています。それは、HBMの生産をコントロールする企業がAI加速市場の鍵を握っており、プロセッサ自体を構築している企業ではないということです。Micronの評価額は、現在の先行き利益の10倍未満であり、このダイナミクスが市場に完全に認識される前の機会の窓を反映しています。
GPUとASICの採用が2026年を通じて加速するにつれ、真の制約は計算能力そのものではなく、その能力を実際に機能させるメモリインフラになるでしょう。