ニュース一覧Nvidia、Nemotron 3 Super を発表、Agentic Workloads 向けに構築された 120B のオープン AI モデル
Bitcoin.com2026-04-20 02:30:44

Nvidia、Nemotron 3 Super を発表、Agentic Workloads 向けに構築された 120B のオープン AI モデル

ORIGINALNvidia Releases Nemotron 3 Super, a 120B Open AI Model Built for Agentic Workloads
AI 影響分析Grok が分析中...
📄原文全文· trafilatura により自動抽出Gemini 翻譯4419 文字
Nvidiaは、AIエージェントを大規模に実行する際の計算コストを削減するために設計された、総パラメータ数1200億のオープンハイブリッドモデル「Nemotron 3 Super」をリリースしました。 Nvidiaがエージェントワークロード向けに構築した120BのオープンAIモデル「Nemotron 3 Super」をリリース 主なポイント: - Nvidiaは、フォワードパスごとに127億パラメータのみをアクティブ化する、120BパラメータのオープンMoEモデル「Nemotron 3 Super」をリリースしました。 - Nemotron 3 Superは、8k-in/64k-out設定のエージェントワークロードにおいて、Qwen3.5-122B-A10Bと比較して最大7.5倍のスループットを実現します。 - このモデルはNvidia Nemotron Open Model Licenseの下で完全にオープン化されており、チェックポイントとトレーニングデータはHugging Faceで公開されています。 NvidiaがQwen3.5-122Bに対して7.5倍のスループット向上を実現する「Nemotron 3 Super」を発表 Nvidiaの最新モデルは、Mixture-of-Experts (MoE) アーキテクチャを使用してフォワードパスごとに127億パラメータのみをアクティブ化するため、推論中はその重みの大部分がアイドル状態となります。この設計上の選択は、開発者がマルチステップのAIエージェントをデプロイする際に直面する2つの問題、すなわち拡張された推論チェーンによる追加コストと、マルチエージェントパイプラインで最大15倍に増大する可能性があるトークン使用量の増加を直接ターゲットにしています。 Nemotron 3 Superは、2025年12月のNemotron 3 Nanoに続く、NvidiaのNemotron 3ファミリーの第2弾モデルです。Nvidiaは2026年3月10日頃にこのリリースを発表しました。 このモデルは、88層にわたるハイブリッドなMamba-Transformerバックボーンを使用しています。Mamba-2ブロックが線形時間の効率で長いシーケンスを処理し、Transformerのアテンション層が正確なリコールを維持します。この組み合わせにより、純粋なアテンション設計に典型的なメモリのペナルティなしで、最大100万トークンのコンテキストウィンドウをネイティブサポートします。 Nvidiaはまた、トークン埋め込みを低ランク空間に圧縮してから層ごとに512の専門家(エキスパート)に送信し、一度に22をアクティブ化するLatentMoEルーティングシステムを組み込みました。同社によると、これにより標準的なMoEアプローチと比較して同じ推論コストで約4倍の専門家を利用でき、エキスパートレベルでPythonロジックとSQL処理を分離するなど、より詳細なタスクの専門化が可能になります。 2つの共有重みヘッドを使用するMulti-Token Prediction層は、思考の連鎖(chain-of-thought)生成を高速化し、ネイティブな投機的デコード(speculative decoding)を可能にします。構造化されたタスクにおいて、Nvidiaは最大3倍の生成速度向上を報告しています。 このモデルは、2段階にわたって25兆トークンで事前トレーニングされました。第1段階では20兆トークンの広範なデータを使用し、第2段階ではベンチマーク性能のために調整された5兆の高品質トークンを使用しました。510億トークンでの最終的な拡張フェーズにより、ネイティブコンテキストが100万トークンまで拡張されました。ポストトレーニングには、約700万サンプルの教師ありファインチューニングと、120万以上のロールアウトを伴う21の環境での強化学習が含まれています。 ベンチマークにおいて、Nemotron 3 SuperはMMLU-Proで83.73、AIME25で90.21、OpenHandsを使用したSWE-Benchで60.47を記録しました。PinchBenchでは85.6パーセントに達し、同クラスのオープンモデルの中で最高スコアを報告しています。長文コンテキスト評価では、RULER 1Mで91.64を記録しました。 GPT-OSS-120Bと比較して、Nemotron 3 Superは8k入力および64k出力で2.2倍のスループットを実現します。Qwen3.5-122B-A10Bに対しては、その数値は7.5倍に達します。Nvidiaはまた、前世代のNemotron Superと比較して5倍以上のスループットと最大2倍の精度向上を報告しています。 Nvidiaは
データステータス✓ 全文抽出済み原文を読む(Bitcoin.com)
🔍過去の類似イベント· キーワード + 銘柄照合1 件
💡 現在はキーワード + 銘柄照合(MVP)を使用しています · 今後 embedding セマンティック検索へアップグレード予定
原始情報
ID:5e28767a39
ソース:Bitcoin.com
公開:2026-04-20 02:30:44
カテゴリ:一般 · エクスポートカテゴリ neutral
銘柄:未指定
コミュニティ投票:+0 /0 · ⭐ 0 重要 · 💬 0 コメント