🎯 はじめに#
みんな、お疲れ様!Emma先生だよ🍫
今日はNVIDIA GTC 2026のキーノートを2時間しっかり見てきたから、その内容を詳しくまとめるね。Jensen Huang(ジェンセン・フアン)CEOのプレゼン、本当に圧巻だった…!
一言で言うと、「推論の時代」が本格的に到来したって感じかな。Vera Rubin、Groq統合、NVIDIA Dynamo… 次から次へと衝撃的な発表が続いたよ。
では、詳しく見ていこう!🔥
📅 イベント概要#
- 日時: 2026年3月16日〜19日
- 場所: サンノゼ
- キーノート: Jensen Huang CEO(2時間)
Emma先生的には、この2時間でAI業界の地図が書き換わったと感じたよ。それくらい重要な発表が多かった!
🚀 主要発表の詳細#
1. Vera Rubin GPUアーキテクチャ#
これが今回の目玉だね!Blackwellの次世代GPU「Vera Rubin」が正式発表されたよ。
チップスペック#
| 項目 | Rubin GPU | Blackwell GPU(比較) |
|---|---|---|
| トランジスタ数 | 336B(2ダイ) | 208B |
| プロセス | TSMC 3nm | TSMC 4nm |
| メモリ | HBM4 288GB | HBM3e 192GB |
| メモリ帯域幅 | 約22 TB/s | 約8 TB/s |
| NVFP4推論性能 | 50 PFLOPS | 10 PFLOPS |
| NVFP4訓練性能 | 35 PFLOPS | 10 PFLOPS |
Emma先生の視点: Blackwell比で推論5倍・訓練3.5倍の性能向上って、本当に凄い。ムーアの法則なら1.5倍程度なのに、これだけ飛躍的な進化を遂げてるのは驚異的だね。
特に注目なのはHBM4メモリ。帯域幅が3倍になってるから、大規模言語モデル(LLM)の処理が劇的に速くなるはず!
2. Vera CPU(カスタムArm CPU)#
Rubinプラットフォームには、NVIDIAが独自設計したArm CPUも含まれるよ。
| 項目 | スペック |
|---|---|
| トランジスタ数 | 227B |
| コア構成 | 88コア / 176スレッド |
| メモリ | 最大1.5TB LPDDR5x |
| メモリ帯域幅 | 最大1.2 TB/s |
Emma先生の視点: GPUの前にデータ前処理を担当するCPUがあることで、GPUの稼働率を最大化できる設計になってる。**「CPUとGPUの完璧な協調」**を実現したって感じかな。
3. NVL72ラックシステム#
これが一番驚いた!72基のRubin GPUと36基のVera CPUを液冷ラック1台に収めたシステムだよ。
| 項目 | NVL72 |
|---|---|
| GPU数 | 72基(Rubin GPU) |
| CPU数 | 36基(Vera CPU) |
| FP4推論性能 | 3.6 EFLOPS |
| FP4訓練性能 | 2.5 EFLOPS |
| HBM4容量 | 20.7 TB |
| NVLink 6帯域幅 | 260 TB/s |
Emma先生の視点: NVLink 6の帯域幅260 TB/sって、**「グローバルインターネット総帯域の2倍以上」**なんだって。この数字、本当に信じられない…!
そして何より重要なのは、トークンコストが最大10倍削減されるってこと。これが実現すれば、LLMの推論コストが**$0.01/1Kトークン → $0.001/1Kトークン**になる可能性がある。
4. Groq 3 LPU統合 - これが一番のサプライズ!#
NVIDIAが2025年12月に約3兆円でGroqを買収してたんだけど、その技術が統合されたんだよ。
LPUアーキテクチャの特徴#
| 項目 | Groq 3 LPU | GPU(比較) |
|---|---|---|
| 主記憶 | SRAM 500MB(オンチップ) | HBM(オフチップ) |
| 内部帯域幅 | 約150 TB/s | 約22 TB/s(Rubin) |
| レイテンシ | 確定的(deterministic) | 変動あり |
| 最適用途 | リアルタイム推論 | 訓練+推論 |
Emma先生の視点: これが本当に面白い!GPUとLPUは全く別のアプローチで推論を高速化してるんだよね。
- GPU: 高スループット重視(大量のトークンを処理)
- LPU: 低レイテンシ重視(リアルタイム推論)
この2つを組み合わせることで、**「高スループットかつ低レイテンシ」**を実現できる。これがNVIDIAの戦略なんだね。
Llama 2 70Bで241〜750トークン/秒っていう数字、本当に凄いよ!
5. NVIDIA Dynamo(推論ソフトウェア)#
Triton Inference Serverの後継として、新しいオープンソース推論ソフトウェアが発表されたよ。
主な特徴:
- disaggregated serving: プリフィルと生成フェーズを分離
- Llamaモデルの推論性能とトークン収益を2倍
- DeepSeek-R1モデルでGPUあたり30倍以上向上
- PyTorch、SGLang、TensorRT-LLM、vLLMに対応
Emma先生の視点: このDynamo、**「同じGPU数で2倍の性能」**を実現できるのが凄い。ハードウェアだけでなく、ソフトウェア最適化も重要だってことがよくわかるね。
6. DLSS 5(ニューラルレンダリング)#
ゲーム好きのみんなに嬉しいニュース!DLSS 5が発表されたよ。
革新性:
- 3D-guided Neural Rendering: 3Dグラフィックスと生成AIの融合
- レイトレーシング以来最大のグラフィックス技術革新
- 2026年秋リリース予定
対応パートナー: Bethesda、Capcom、Tencent、Ubisoft
Emma先生の視点: 「構造化データ(3Dグラフィックス)」と「生成AI」を組み合わせることで、美しく、かつ制御可能なコンテンツを生成できる。この考え方、AIの他の分野にも応用できそうだね!
7. NemoClaw(エージェントプラットフォーム)#
企業向けAIエージェント構築プラットフォームも発表されたよ。
主な特徴:
- OpenShellランタイム搭載
- ポリシー適用、ネットワークガードレール、プライバシールーティング統合
- DGX Spark、DGX Stationと組み合わせてローカル開発可能
Emma先生の視点: エージェントAIが本格化する中で、セキュリティは超重要。NemoClawはその課題に対応するプラットフォームとして注目だね。
8. クラウド提供スケジュール#
いつから使えるのか、これも重要!
| 時期 | マイルストーン |
|---|---|
| 2026年 Q1 | Vera Rubin量産開始 |
| 2026年 H2 | AWS・Google Cloud・Azure・OCIで初期展開 |
| 2026年 Q4〜2027年 Q1 | クラウド一般提供(GA) |
| 2027年 | Vera Rubin Ultra出荷 |
クラウドパートナー:
- ハイパースケーラー: AWS、Google Cloud、Microsoft Azure、Oracle Cloud
- NVIDIAパートナー: CoreWeave、Lambda、Nebius、Nscale
Emma先生の視点: AWSは100万基以上のNVIDIA GPUを展開する計画らしい。この規模、本当に桁違いだね…!
💡 Emma先生が特に注目したポイント#
1. トークンファクトリーの経済学#
Jensen CEOが強調してたのが、**「データセンターはファイル保存からトークン生成ファクトリーへ変わった」**ってこと。
トークン価格の分化#
| ティア | 特徴 | 価格例 |
|---|---|---|
| 無料 | 高スループット・低速度 | $0 |
| 標準 | 中スループット・中速度 | $3/100万トークン |
| 高 | 低スループット・高速度 | $6/100万トークン |
| プレミアム | 最低スループット・最高速度 | $45〜$150/100万トークン |
Emma先生の視点: 将来、エンジニアは年間トークン予算を持つようになるって話があった。基本給に加えて、その半額程度をトークンとして支給される時代が来るかも。
シリコンバレーでは「仕事に何トークン付いてくるか」が採用条件になるらしい。これ、本当に新しい時代の到来を感じるね!
2. AIの3つの変曲点#
Jensen CEOが整理してくれたAIの進化ステップ:
| 段階 | 特徴 | 例 |
|---|---|---|
| ChatGPT | 生成AI時代の始まり | 検索→生成 |
| o1 | 推論AI | 反省・計画・問題分解 |
| Claude Code | エージェントAI | 実際の仕事を遂行 |
Emma先生の視点: NVIDIA社員の100%がClaude Code / Codex / Cursorを使用してるらしい。これ、AIが「生成」→「推論」→「実行」へシフトしたことを如実に示してるね。
3. 収益インパクト(1GWデータセンター)#
| プラットフォーム | Hopper比の収益 |
|---|---|
| Hopper | 1x |
| Grace Blackwell | 5x |
| Vera Rubin | 25x(Groq統合時は35x) |
Emma先生の視点: この数字、本当に驚き!HopperからRubinで25倍の収益向上。Groqを統合すると35倍。これだけの飛躍的な改善があると、データセンターの投資判断も大きく変わるはず。
4. Physical AI - 自動運転の「ChatGPTモーメント」#
自動運転分野も大きな進展があったよ。
新パートナー: BYD、Hyundai、NISSAN、Geely(年間1,800万台)
Alpamayo: 世界初の思考・推論する自動運転AI
Emma先生の視点: 「自動運転のChatGPTモーメント」って表現があったけど、本当にその通りだと思う。Alpamayoは車が自分の行動を説明できるらしい。これ、信頼性の面で大きいね。
🗺️ NVIDIAのロードマップ#
未来の予定も公開されたよ。
| 世代 | GPU | CPU | LPU | スケールアップ |
|---|---|---|---|---|
| Blackwell | Blackwell | Grace | - | NVLink 72 |
| Rubin | Rubin | Vera | LP 30 | NVLink 72 → 576 |
| Rubin Ultra | Rubin Ultra | Vera | LP 35 | Kyber(NVLink 144) |
| Feynman | 次世代 | Rosa | LP 40 | Kyber + CPO |
Emma先生の視点: Feynmanって名前、物理学者のリチャード・ファインマンに由来してるのかな?NVIDIAらしいネーミングセンスだね!
🌟 OpenClaw - エージェントAIのOS#
これ、Emma先生的に一番興味深かった!
OpenClawは、AIエージェントのためのオペレーティングシステム。
- 人類史上最も人気のあるオープンソースプロジェクト(数週間でLinuxの30年を超えた)
- コマンド1つでAIエージェントをダウンロード・構築可能
- Windowsがパーソナルコンピュータを可能にしたように、OpenClawがパーソナルエージェントを可能にした
Emma先生の視点: この表現、本当に的を得てる。「すべての企業がOpenClaw戦略を持つ必要がある」ってJensen CEOが言ってたけど、その通りだと思う。
Linux、HTTP/HTML、Kubernetesと同様、業界が必要としていたものを必要なタイミングで提供した。このタイミングの完璧さ、NVIDIAの戦略眼の鋭さを感じるね。
📈 市場規模の予測#
- 2027年までに1兆ドルの需要(昨年の5,000億ドルから倍増)
- AIスタートアップへのベンチャー投資: 1,500億ドル(人類史上最大)
- 計算需要は過去2年間で100万倍に増加
Emma先生の視点: 1兆ドルって数字、本当に信じられないよね。でも、AIが全産業に浸透していくことを考えると、決して不可能な数字じゃない。
💰 開発者が今取るべきアクション#
Emma先生的に、これが重要だと思う:
- 2026年後半のクラウド提供開始に向けて、自社の推論ワークロードを棚卸し
- MoEモデルを使用している場合、Vera Rubinのコスト削減効果を見積もる
- リアルタイム推論が要件にある場合、Groq 3 LPUの適用可能性を評価
- NVIDIA Dynamoへの移行を検討し、disaggregated servingによる既存GPU活用も視野に入れる
- OpenClaw戦略を検討し、エージェントAIへの対応を準備
🎯 まとめ#
GTC 2026は、NVIDIAが「推論の時代」に本格シフトしたことを示す歴史的なイベントだった。
Vera Rubin GPU + Groq 3 LPU + NVIDIA Dynamoの三位一体で、推論コストを劇的に削減し、エージェントAIの普及を加速させる構図。
Emma先生的に特に印象的だったのは:
- トークンコスト10倍削減 - これが実現すれば、AI活用のハードルが劇的に下がる
- 年間トークン予算 - 将来、トークンが新しい通貨になる可能性
- OpenClaw - エージェントAIのOSとして、Linux並みのインパクトを持つ可能性
- Physical AI - 自動運転の「ChatGPTモーメント」が到来
これからの時代、**「トークンをいかに効率的に生成・消費するか」**が競争力の鍵になる。
みんなも、自分の仕事でどうAIを活用するか、ちゃんと考えておいた方がいいよ!
Emma先生は、これからもAIの最新動向を追い続けるから、また最新情報をシェアするね!
では、また!👋✨