ニュース一覧Google、第8世代TPUを発表:AIチップ2種で学習と推論を分担、Nvidiaの弱点を突く
動區 BlockTempo2026-04-23 01:16:08

Google、第8世代TPUを発表:AIチップ2種で学習と推論を分担、Nvidiaの弱点を突く

ORIGINALGoogle 推第八代 TPU:兩款 AI 晶片分攻訓練與推論,挑戰 Nvidia 痛點
AI 影響分析Grok が分析中...
📄原文全文· trafilatura により自動抽出Gemini 翻譯1896 文字
Google は Cloud Next 2026 にて第8世代 TPU を発表し、トレーニングと推論のタスクを初めて TPU 8t と TPU 8i という2つの専用チップに分離しました。これにより、ドルあたりのパフォーマンスが最大 80% 向上すると主張しています。 (前回の経緯:Anthropic が Broadcom、Google との提携を発表し、TPU チップの採用を拡大。年間収益は 300 億ドルに急増) (背景補足:Nvidia の「お気に入り」でも通用せず!Core Scientific の「筆頭株主」が CoreWeave による買収を拒否:90 億ドルの評価額は低すぎると判断) Google の初代 TPU(AI 計算専用に設計された自社開発チップ)が 2016 年に登場した際、市場はそれが Nvidia の終焉をもたらすと予測しました。しかし結果は、Nvidia の時価総額はこの 10 年間で数千億ドルから数十倍に成長し、当時の予測のほとんどは実現しませんでした。 今回、Google は Cloud Next 2026 カンファレンスで第8世代 TPU を発表し、これまで行わなかった決定を下しました。それは、トレーニングと推論を分離し、それぞれ専用のチップで処理することです。 「トレーニング」と「推論」は、AI 計算における全く異なる2つのフェーズです。 - トレーニングは、モデルが膨大なデータから学習するプロセスであり、極めて高い計算密度を必要とします。 - 推論は、モデルが学習を終えた後、ユーザーのクエリに応答するプロセスであり、低遅延と低コストが求められます。 これまで Google は同一の TPU でこれら両方のニーズに対応してきましたが、第8世代からは正式に分離されました。 TPU 8t はトレーニング専用チップです。12.6 petaFLOPS の 4 ビット浮動小数点演算能力(petaFLOPS は 1 秒間に 1,000 兆回の浮動小数点計算を行う単位で、数値が大きいほど演算が高速)、216 GB の高帯域幅メモリ、および 6.5 TB/s のメモリ帯域幅を備えています。Google は、このチップが前世代よりもトレーニング速度が 3 倍速く、100 万個以上の TPU を単一のクラスターで同時に連携させることが可能であると主張しています。 TPU 8i は推論専用チップです。10.1 petaFLOPS の FP4 演算能力、288 GB の高帯域幅メモリ、およびデータ転送の遅延を削減するためのより大きな 384 MB のオンチップメモリを備えています。Google によると、ドルあたりの推論パフォーマンスは前世代の Ironwood TPU と比較して 80% 向上しており、特に低遅延の目標において顕著な成果を上げています。 両チップは 2026 年中に正式に一般公開される予定です。 Google による今回のチップ分離の方向性は、Nvidia の弱点の一つである「汎用性」を直接狙ったものです。 Nvidia の GPU は、単一の製品ラインでトレーニングと推論の両方をカバーしています。Nvidia が今後投入する Vera Rubin チップのスペックは、35 petaFLOPS の FP4 演算、288 GB の HBM4 メモリ、22 TB/s のメモリ帯域幅であり、純粋な計算能力の数値では依然として Google の TPU 8t(12.6 petaFLOPS)を上回っています。 しかし、単に petaFLOPS を比較するだけでは、もう一つの重要な側面である「コスト構造」が見えなくなります。推論市場における競争の本質は「モデルが回答するたびにかかる費用」です。Google は TPU 8i の設計目標を推論単価の抑制に置いており、これこそが Anthropic や OpenAI といった大規模モデル企業が最も重視する数値です。 注目すべきは、Anthropic がすでに Claude のトレーニングとサービスを「マルチギガワット級」の TPU 容量に拡張すると発表し、現在公開されている中で最大の TPU 顧客となっている点です。また、OpenAI も Google の TPU 容量の利用を開始しています。 ただし、Google 自身も Nvidia を否定しているわけではありません。同社は同時に、2026 年末までに自社のクラウドで Nvidia Vera Rubin チップを提供することも発表しました。さらに両社は、Google が 2023 年にオープンソース化したデータセンターネットワーク技術「Falcon」プロトコルの強化で協力しており、Nvidia のシステムが Google Cloud 上でより効率的に動作することを目指しています
データステータス✓ 全文抽出済み原文を読む(動區 BlockTempo)
🔍過去の類似イベント· キーワード + 銘柄照合6 件
💡 現在はキーワード + 銘柄照合(MVP)を使用しています · 今後 embedding セマンティック検索へアップグレード予定
原始情報
ID:f956b2da18
ソース:動區 BlockTempo
公開:2026-04-23 01:16:08
カテゴリ:zh_news · エクスポートカテゴリ zh
銘柄:未指定
コミュニティ投票:+0 /0 · ⭐ 0 重要 · 💬 0 コメント