要闻列表Nvidia 发布 Nemotron 3 Super,这是一款专为 Agentic Workloads 构建的 120B 开源 AI 模型
Bitcoin.com2026-04-20 02:30:44

Nvidia 发布 Nemotron 3 Super,这是一款专为 Agentic Workloads 构建的 120B 开源 AI 模型

ORIGINALNvidia Releases Nemotron 3 Super, a 120B Open AI Model Built for Agentic Workloads
AI 影响分析Grok 分析中...
📄完整原文· 由 trafilatura 自动抓取Gemini 翻譯4419 字
Nvidia 发布了 Nemotron 3 Super,这是一个拥有 1200 亿总参数的开放式混合模型,旨在降低大规模运行人工智能(AI)代理的计算成本。 Nvidia 发布 Nemotron 3 Super,一款专为代理工作负载构建的 120B 开放式 AI 模型 核心要点: - Nvidia 发布了 Nemotron 3 Super,这是一款 120B 参数的开放式 MoE 模型,在每次前向传播中仅激活 127 亿个参数。 - 在 8k 输入/64k 输出的设置下,Nemotron 3 Super 在代理工作负载中的吞吐量比 Qwen3.5-122B-A10B 高出 7.5 倍。 - 该模型在 Nvidia Nemotron Open Model License 下完全开放,检查点和训练数据可在 Hugging Face 上获取。 Nvidia 推出 Nemotron 3 Super,吞吐量较 Qwen3.5-122B 提升 7.5 倍 这款最新的 Nvidia 模型使用混合专家(MoE)架构,在每次前向传播中仅激活 127 亿个参数,这意味着其大部分权重在推理过程中处于闲置状态。这一设计选择直接针对开发者在部署多步 AI 代理时遇到的两个问题:扩展推理链带来的额外成本,以及在多代理流水线中可能增加多达 15 倍的激增 Token 使用量。 Nemotron 3 Super 是 Nvidia Nemotron 3 系列中的第二个模型,继 2025 年 12 月发布的 Nemotron 3 Nano 之后。Nvidia 于 2026 年 3 月 10 日左右宣布了该模型的发布。 该模型在 88 层中使用了混合 Mamba-Transformer 主干架构。Mamba-2 模块以线性时间效率处理长序列,而 Transformer 注意力层则保留了精确的召回能力。这种组合使模型能够原生支持高达一百万个 Token 的上下文窗口,而不会出现纯注意力设计中常见的内存损耗。 Nvidia 还内置了 LatentMoE 路由系统,在将 Token 嵌入发送到每层 512 个专家之前,将其压缩到低秩空间,每次激活 22 个专家。该公司表示,与标准 MoE 方法相比,这使得在相同的推理成本下专家数量增加了约四倍,并实现了更精细的任务专业化,例如在专家层面将 Python 逻辑与 SQL 处理分离开来。 使用两个共享权重头的多 Token 预测层加快了思维链的生成,并允许原生推测解码。在结构化任务上,Nvidia 报告生成速度提高了三倍。 该模型在两个阶段中对 25 万亿个 Token 进行了预训练。第一阶段使用了 20 万亿个广泛数据 Token。第二阶段使用了 5 万亿个针对基准性能调整的高质量 Token。在 510 亿个 Token 上的最终扩展阶段将原生上下文扩展到了一百万个 Token。训练后阶段包括在约 700 万个样本上进行的监督微调,以及在 21 个环境中进行的超过 120 万次演练的强化学习。 在基准测试中,Nemotron 3 Super 在 MMLU-Pro 上得分为 83.73,在 AIME25 上得分为 90.21,在使用 OpenHands 的 SWE-Bench 上得分为 60.47。在 PinchBench 上,它达到了 85.6%,是同类开放模型中报告的最高分数。在长上下文评估中,它在 RULER 1M 上得分为 91.64。 与 GPT-OSS-120B 相比,Nemotron 3 Super 在 8k 输入和 64k 输出下的吞吐量是其 2.2 倍。与 Qwen3.5-122B-A10B 相比,这一数字达到了 7.5 倍。Nvidia 还报告称,与上一代 Nemotron Super 相比,吞吐量提高了五倍以上,准确率提高了两倍。 Nvidia 使用其 NVFP4 四位浮点格式端到端地训练了该模型,并针对 Blackwell GPU 进行了优化。Nvidia 表示,在 B200 硬件上,推理运行速度比 H100 上的 FP8 快四倍,且未报告准确率损失。量化后的 FP8 和 NVFP4 检查点保留了 99.8% 或更高的全精度准确率。 该模型还为 Nvidia AI-Q 研究代理提供了支持,该代理在 Deepresearch
数据状态✓ 已抓取全文阅读原文(Bitcoin.com)
🔍历史类似事件· 关键词 + 标的比对1 则
💡 目前用关键词 + 标的比对(MVP)· 之后会升级为 embedding 语义搜寻
原始信息
ID:5e28767a39
来源:Bitcoin.com
发布:2026-04-20 02:30:44
分类:一般 · 导出分类 neutral
标的:未指定
社群投票:+0 /0 · ⭐ 0 重要 · 💬 0 留言
Nvidia 发布 Nemotron 3 Super,这是一款专为 Agentic Workloads 构建的 120B 开源 AI 模型 | Feel.Trading