黄仁勋1.5時間連続で8つの新製品を発表、NVIDIAはAI推論と物理AIに全力投資

作者 | ZeR0 骏达,智东西

編集 | 漠影

芯东西拉斯ベガス1月5日報道、先ほど、NVIDIA創業者兼CEO黄仁勋は国際コンシューマエレクトロニクス展CES 2026で2026年最初のテーマ演説を行った。黄仁勋はいつもの革ジャン姿で、1.5時間の間に8つの重要発表を連続して行い、チップ、ラックからネットワーク設計まで、新世代プラットフォームについて深く紹介した。

加速計算とAIインフラストラクチャ分野において、英伟达はNVIDIA Vera Rubin POD AIスーパーコンピュータ、NVIDIA Spectrum-Xイーサネット共封装光学デバイス、NVIDIA推論コンテキスト内メモリストレージプラットフォーム、DGX Vera Rubin NVL72を基にしたNVIDIA DGX SuperPODを発表した。

NVIDIA Vera Rubin PODは、英伟达の6つの自社開発チップを採用し、CPU、GPU、スケールアップ、スケールアウト、ストレージと処理能力をカバーし、すべて協調設計されている。先進的なモデルの要求に応え、計算コストを削減できる。

Vera CPUはカスタムOlympusコアアーキテクチャを採用し、Rubin GPUはTransformerエンジン導入後、NBFP4推論性能は50PFLOPSに達し、GPU NVLink帯域幅は3.6TB/sに達し、第三世代の汎用秘密計算(第1のラックレベルTEE)をサポートし、CPUとGPU間の完全な信頼実行環境を実現している。

これらのチップはすでに量産に入り、英伟达はNVIDIA Vera Rubin NVL72システム全体の検証を完了し、パートナーも内部に統合されたAIモデルとアルゴリズムの運用を開始している。エコシステム全体がVera Rubinの展開準備を進めている。

その他の発表では、NVIDIA Spectrum-Xイーサネット共封装光学デバイスは電源効率と稼働時間を大幅に最適化し、NVIDIA推論コンテキスト内メモリストレージプラットフォームはストレージスタックを再定義し、重複計算を削減し推論効率を向上させている。DGX Vera Rubin NVL72を基にしたNVIDIA DGX SuperPODは、大規模なMoEモデルのトークンコストを1/10に削減している。

オープンモデルの面では、英伟达はオープンソースモデルの全ファミリーを拡大し、新たなモデル、データセット、ライブラリを発表した。NVIDIA Nemotronオープンソースモデルシリーズに新たにAgentic RAGモデル、安全モデル、音声モデルが追加され、すべてのタイプのロボットに適した新しいオープンモデルも公開された。ただし、黄仁勋は演説内で詳細には触れなかった。

物理AIの面では、物理AIのChatGPT時代が到来、英伟达のフルスタック技術により、世界のエコシステムはAI駆動のロボット技術を通じて産業を変革できる。英伟达の広範なAIツールライブラリには、新たなAlpamayoオープンモデル群も含まれ、世界の交通産業は安全なL4自動運転を迅速に実現できる。NVIDIA DRIVE自動運転プラットフォームはすでに生産に投入されており、すべての新型メルセデス・ベンツCLAに搭載され、L2++ AI定義の運転を実現している。

01.新世代AIスーパーコンピュータ:6種の自社開発チップ、ラックあたりの計算能力3.6EFLOPS

黄仁勋は、10年から15年ごとにコンピュータ業界は全面的な再構築を迎えると考えているが、今回はCPUからGPUへ、プログラミングソフトウェアからトレーニングソフトウェアへと、二つのプラットフォームの変革が同時に起きている。加速計算とAIは計算スタック全体を再構築し、過去10年で10兆ドルの価値を持つ計算産業は現代化の途上にある。

同時に、計算能力への需要も急増している。モデルのサイズは毎年10倍に拡大し、推論に使われるトークン数は毎年5倍に増え、1トークンあたりのコストは毎年10分の1に下がっている。

この需要に応えるため、英伟达は毎年新しい計算ハードウェアをリリースすることを決定した。黄仁勋は、現在Vera Rubinも全面的に生産を開始していると明らかにした。

英伟达の新しいAIスーパーコンピュータNVIDIA Vera Rubin PODは、6つの自社開発チップを採用している:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9(CX9)スマートNIC、BlueField-4 DPU、Spectrum-X 102.4T CPO。

**Vera CPU:**データ移動とエージェント処理向けに設計され、英伟达のカスタムOlympusコア88個、176スレッドの空間マルチスレッディングを備え、NVLink-C2Cは1.8TB/s、CPUとGPUのメモリ統合をサポート。システムメモリは1.5TB(Grace CPUの3倍)、SOCAMM LPDDR5Xメモリ帯域は1.2TB/s、ラックレベルの秘密計算もサポートし、データ処理性能は倍増している。

**Rubin GPU:**Transformerエンジンを導入し、NVFP4推論性能は50PFLOPSに達し、Blackwell GPUの5倍。後方互換性を持ち、推論精度を維持しつつBF16/FP4レベルの性能を向上させている。NVFP4トレーニング性能は35PFLOPSに達し、Blackwellの3.5倍。

Rubinはまた、HBM4をサポートする最初のプラットフォームであり、HBM4の帯域幅は22TB/s、前世代の2.8倍。厳しいMoEモデルやAIワークロードに必要な性能を提供できる。

**NVLink 6 Switch:**シングルレーンの速度は400Gbpsに向上し、SerDes技術を採用して高速信号伝送を実現。各GPUは3.6TB/sの全相互接続通信帯域を実現し、前世代の2倍。総帯域は28.8TB/s、FP8精度ではin-network計算性能は14.4TFLOPS、液冷を100%サポート。

**NVIDIA ConnectX-9 SuperNIC:**各GPUは1.6Tb/sの帯域幅を提供し、大規模AI向けに最適化され、完全にソフトウェア定義・プログラマブル・加速されたデータパスを備える。

**NVIDIA BlueField-4:**800GbpsのDPUで、スマートNICとストレージプロセッサとして機能。64コアのGrace CPUを搭載し、ConnectX-9 SuperNICと組み合わせてネットワークとストレージ関連の計算負荷をオフロード。ネットワークセキュリティも強化し、計算性能は前世代の6倍、メモリ帯域は3倍、GPUからのデータアクセス速度は2倍に向上。

**NVIDIA Vera Rubin NVL72:**システムレベルで上記すべてのコンポーネントを統合した単一ラック処理システム。トランジスタ数は2兆個、NVFP4推論性能は3.6EFLOPS、トレーニング性能は2.5EFLOPS。

このシステムのLPDDR5Xメモリ容量は54TBで、前世代の2.5倍。総HBM4メモリは20.7TBで、前世代の1.5倍。HBM4の帯域幅は1.6PB/s、前世代の2.8倍。縦方向の拡張帯域は260TB/sに達し、世界のインターネット総帯域を超える。

このシステムは第3世代MGXラック設計に基づき、計算トレイはモジュール化され、ホストレス、ケーブルレス、ファンレス設計。組み立てとメンテナンスはGB200の18倍高速化。従来2時間かかっていた組み立て作業は約5分に短縮され、液冷使用率も80%から100%に向上。システム単体の重さは2トンだが、水冷液を加えると2.5トンに達する。

NVLink Switchトレイはゼロダウンタイムのメンテナンスとフォールトトレランスを実現し、トレイの取り外しや部分展開時もラックは稼働し続ける。第2世代RASエンジンはゼロダウンタイムの状態監査を可能にしている。

これらの特性により、システムの稼働時間とスループットが向上し、トレーニングと推論のコストも削減。データセンターの高信頼性・高メンテナンス性の要求に応える。

すでに80社以上のMGXパートナーが、Rubin NVL72の超大規模ネットワーク展開を支援する準備が整っている。

02.三大新製品がAI推論効率を爆上げ:新CPOデバイス、新コンテキストストレージ層、新DGX SuperPOD

同時に、英伟达は3つの重要な新製品を発表した:NVIDIA Spectrum-Xイーサネット共封装光学デバイス、NVIDIA推論コンテキスト内メモリストレージプラットフォーム、DGX Vera Rubin NVL72を基にしたNVIDIA DGX SuperPOD。

1、NVIDIA Spectrum-Xイーサネット共封装光学デバイス

NVIDIA Spectrum-Xイーサネット共封装光学デバイスは、Spectrum-Xアーキテクチャに基づき、2つのチップで構成され、200Gbps SerDesを採用。各ASICは102.4Tb/sの帯域幅を提供。

このスイッチングプラットフォームは、512ポートの高密度システムと128ポートのコンパクトシステムを含み、各ポートは800Gb/sの速度。

CPO(共封装光学)スイッチングシステムは、エネルギー効率を5倍、信頼性を10倍、アプリケーションの稼働時間を5倍向上させる。

これにより、毎日処理できるトークン数が増え、データセンターの総所有コスト(TCO)をさらに削減できる。

2、NVIDIA推論コンテキスト内メモリストレージプラットフォーム

NVIDIA推論コンテキスト内メモリストレージプラットフォームは、PODレベルのAIネイティブストレージ基盤で、KVキャッシュを格納。BlueField-4とSpectrum-X Ethernetによるアクセラレーションを備え、NVIDIA DynamoやNVLinkと緊密に連携し、メモリ・ストレージ・ネットワーク間の協調コンテキストスケジューリングを実現。

このプラットフォームは、コンテキストを一級のデータ型として扱い、推論性能を5倍、エネルギー効率を5倍向上させる。

これにより、多輪対話、RAG、Agentic多段推論などの長いコンテキストを必要とするアプリケーションの改善に不可欠となる。これらのワークロードは、コンテキストをシステム全体で効率的に保存・再利用・共有する能力に大きく依存している。

AIはチャットボットからAgentic AI(エージェント)へと進化し、推論やツール呼び出し、長期的な状態維持を行う。コンテキストウィンドウは数百万トークンに拡大し、これらはKVキャッシュに保存される。各ステップで再計算するとGPU時間の浪費と遅延増大を招くため、保存が必要となる。

しかし、GPUのVRAMは高速だが希少であり、従来のネットワークストレージは短期的なコンテキストには効率が低い。推論のボトルネックは計算からコンテキストストレージに移行しているため、GPUとストレージの間に推論最適化された新たなメモリ層が必要だ。

この層は事後的なパッチではなく、ネットワークストレージと協調設計され、最小コストでコンテキストデータを移動できる必要がある。新しいストレージ階層として、NVIDIA推論コンテキスト内メモリストレージプラットフォームは、ホストシステムに直接存在せず、BlueField-4を介して計算デバイス外に接続される。これにより、ストレージプールの拡張が効率的になり、KVキャッシュの重複計算を回避できる。

英伟达はストレージパートナーと密に連携し、NVIDIA推論コンテキスト内メモリストレージプラットフォームをRubinプラットフォームに導入し、顧客がこれを完全統合されたAIインフラの一部として展開できるよう支援している。

3、Vera Rubinを基盤としたNVIDIA DGX SuperPOD

システムレベルでは、NVIDIA DGX SuperPODは大規模AI工場展開のブループリントであり、8セットのDGX Vera Rubin NVL72システムを用い、NVLink 6縦方向拡張ネットワークとSpectrum-X Ethernet横方向拡張ネットワークを採用。NVIDIA推論コンテキスト内メモリストレージプラットフォームを内蔵し、工学的検証も完了している。

全体はNVIDIA Mission Controlソフトウェアで管理され、極限の効率を実現。顧客はこれをキットとして導入し、少ないGPUでトレーニングと推論を行える。

6つのチップ、トレイ、ラック、ポッド、データセンター、ソフトウェアの協調設計により、Rubinプラットフォームはトレーニングと推論のコストを大きく削減。前世代のBlackwellと比べ、同規模のMoEモデルのトレーニングにはGPUの4分の1だけで済み、遅延同じ条件下でトークンコストは1/10に低減している。

DGX Rubin NVL8システムを採用したNVIDIA DGX SuperPODも同時に発表された。

Vera Rubinアーキテクチャを活用し、英伟达はパートナーや顧客とともに、世界最大・最先端・最コスパのAIシステムを構築し、AIの主流化を加速させている。

Rubinインフラは今年後半にCSPとシステムインテグレーターを通じて提供され、Microsoftなどが最初の導入者となる予定だ。

03.オープンモデル宇宙のさらなる拡大:新モデル、データ、オープンエコシステムの重要貢献者

ソフトウェアとモデルの面では、英伟达はオープンソースへの投資を継続している。

OpenRouterなどの主要開発プラットフォームによると、過去1年でAIモデルの使用量は20倍に増加し、そのうち約4分の1のトークンはオープンソースモデル由来。

2025年、英伟达はHugging Face上のオープンソースモデル、データ、レシピの最大貢献者であり、650のオープンソースモデルと250のオープンデータセットをリリースした。

英伟达のオープンソースモデルは、多くのランキングでトップクラスに位置している。開発者はこれらを使って学習・拡張・カスタマイズできるだけでなく、オープンソースツールやドキュメントを活用してAIシステムを構築できる。

Perplexityに触発された黄仁勋は、エージェントはマルチモデル、多クラウド、ハイブリッドクラウドの構成が基本であり、これがエージェント型AIシステムの基本アーキテクチャだと観察している。ほぼすべてのスタートアップがこれを採用している。

英伟达が提供するオープンソースモデルとツールを活用し、開発者は今やAIシステムをカスタマイズし、最先端のモデル能力を利用できる。現在、英伟达はこれらのフレームワークを「ブループリント」として統合し、SaaSプラットフォームに組み込んでいる。ユーザーはブループリントを使って迅速に展開できる。

現場デモの例では、このシステムはユーザーの意図に応じて、ローカルのプライベートモデルかクラウドの最先端モデルかを自動判断し、外部ツール(メールAPI、ロボット制御インターフェース、カレンダーサービス等)も呼び出し、多モーダル融合を実現し、テキスト・音声・画像・ロボットセンサー信号などを統合処理する。

これらの複雑な能力はかつては想像もできなかったが、今や取るに足らないレベルになっている。ServiceNowやSnowflakeなどの企業プラットフォームでも、類似の能力が利用可能だ。

04.オープンソースAlpha-Mayoモデルで自動運転車に「思考」を持たせる

英伟达は、物理AIとロボットが最終的に世界最大のコンシューマエレクトロニクス市場になると信じている。動くすべてのものは、最終的に完全自律化され、物理AIによって駆動される。

AIは、感知AI、生成AI、エージェントAIの段階を経て、今や物理AI時代に入り、知性は現実世界に入り込み、物理法則を理解し、物理世界の感知から直接行動を生成できる。

この目標を達成するには、物理AIは世界の常識を学ぶ必要がある——物体の恒存性、重力、摩擦など。これらの能力は、3つのコンピュータに依存して獲得される:トレーニング用計算機(DGX)はAIモデルの構築に、推論用計算機(ロボット/車載チップ)はリアルタイム実行に、シミュレーション用計算機(Omniverse)は合成データ生成と物理ロジックの検証に使われる。

その中核モデルはCosmos世界基盤モデルであり、言語・画像・3D・物理法則を整合させ、シミュレーションからトレーニングデータを生成する全連鎖を支える。

物理AIは、以下の3つのエンティティに出現する:建築(工場、倉庫など)、ロボット、自動運転車。

黄仁勋は、自動運転は物理AIの最初の大規模応用例になると考えている。この種のシステムは、現実世界を理解し、意思決定を行い、動作を実行する必要があり、安全性、シミュレーション、データの要求が非常に高い。

これに対し、英伟达はAlpha-Mayoを発表した。これは、オープンソースモデル、シミュレーションツール、物理AIデータセットからなる完全な体系で、安全性と推論に基づく物理AI開発を加速させる。

この製品群は、世界の自動車メーカー、サプライヤー、スタートアップ、研究者にL4自動運転システムの構築基盤を提供する。

Alpha-Mayoは、業界初の「自動運転車に“思考”を持たせる」モデルであり、すでにオープンソース化されている。このモデルは、問題を段階に分解し、すべての可能性を推論し、最も安全な経路を選択する。

この推論型のタスク・アクションモデルにより、自動運転システムは、これまで経験したことのない複雑なエッジケース、例えば交差点の信号故障などに対応できる。Alpha-Mayoは100億パラメータを持ち、自動運転のタスク処理に十分な規模を持ちつつ、研究者向けのワークステーションでも動作可能な軽量さも備える。

テキスト、全周囲カメラ、車両の履歴状態、ナビゲーション入力を受け取り、走行軌跡と推論過程を出力し、乗員に車両の行動理由を理解させる。

公開されたプロモーション映像では、Alpha-Mayoの駆動により、自動運転車は介入なしで歩行者避け、左折車両の予測、車線変更などを自律的に行う。

黄仁勋は、Alpha-Mayoを搭載したメルセデス・ベンツCLAがすでに量産開始され、NCAPで世界最安全車に選ばれたと述べた。すべてのコード、チップ、システムは安全認証済み。米国市場に導入され、今年後半には高速道路のハンズフリー運転や都市環境でのエンドツーエンド自動運転も展開予定だ。

英伟达はまた、Alpha-Mayoの学習用一部データセットや、オープンソース推論モデル評価シミュレーションフレームワークAlpha-Simも公開した。開発者は自社データを用いてAlpha-Mayoを微調整できるほか、Cosmosで合成データを生成し、実データと合成データを組み合わせて自動運転アプリを訓練・評価できる。さらに、英伟达はNVIDIA DRIVEプラットフォームもすでに生産投入している。

英伟达は、Boston Dynamics、Franka Robotics、手術ロボット、LG電子、NEURA、XRLabs、智元ロボットなど、世界のロボットリーディング企業がNVIDIA IsaacとGR00Tを基盤に構築していると発表した。

黄仁勋はまた、シーメンスとの最新協業も正式に発表した。シーメンスは英伟达CUDA-X、AIモデル、Omniverseを自社のEDA、CAE、デジタルツインツール・プラットフォームに統合している。物理AIは設計、シミュレーションから製造、運用までの全工程で広く活用される見込みだ。

05.結び:オープンソースを左手に、ハードウェアシステムを右手に、代替不可能な存在へ

AIインフラの重心がトレーニングから大規模推論へと移行する中、プラットフォーム競争は単なる計算能力から、チップ、ラック、ネットワーク、ソフトウェアを含むシステムエンジニアリングへと進化し、目標はTCO最小化で最大の推論スループットを実現することにある。AIは「工場化運用」の新段階に入った。

英伟达はシステムレベルの設計に非常に注力し、Rubinはトレーニングと推論の両面で性能とコスト効率を向上させ、Blackwellの即席代替としても機能できる。Blackwellからシームレスに移行可能だ。

プラットフォームの位置付けとしては、黄仁勋は依然としてトレーニングが重要だと考えている。最先端モデルを迅速に訓練できてこそ、推論プラットフォームが真価を発揮できるからだ。したがって、Rubin GPUにはNVFP4トレーニングを導入し、性能向上とTCO削減を図っている。

同時に、このAI計算の巨人は縦横の拡張アーキテクチャにおいてネットワーク通信能力を大幅に強化し、コンテキストを重要なボトルネックとみなして、ストレージ・ネットワーク・計算の協調設計を進めている。

英伟达はオープンソースを積極的に推進しつつ、ハードウェアやインターコネクト、システム設計をますます「代替不可能」なレベルに高めている。この需要拡大、トークン消費の促進、推論規模の拡大、高コスパインフラの提供といった戦略の循環が、英伟达のより堅固な競争優位を築いている。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン