Danh sách tinNvidia phát hành Nemotron 3 Super, một mô hình AI mở 120B được xây dựng cho các khối lượng công việc Agentic
Bitcoin.com2026-04-20 02:30:44

Nvidia phát hành Nemotron 3 Super, một mô hình AI mở 120B được xây dựng cho các khối lượng công việc Agentic

ORIGINALNvidia Releases Nemotron 3 Super, a 120B Open AI Model Built for Agentic Workloads
Phân tích tác động AIGrok đang phân tích...
📄Toàn văn bài viết· Được trích xuất tự động bởi trafilaturaGemini 翻譯4419 từ
Nvidia đã phát hành Nemotron 3 Super, một mô hình lai mở với tổng cộng 120 tỷ tham số được thiết kế để cắt giảm chi phí tính toán khi vận hành các tác nhân trí tuệ nhân tạo (AI) ở quy mô lớn. Nvidia phát hành Nemotron 3 Super, một mô hình AI mở 120B được xây dựng cho các khối lượng công việc tác nhân Các điểm chính: - Nvidia đã phát hành Nemotron 3 Super, một mô hình MoE mở với 120B tham số, chỉ kích hoạt 12,7B tham số cho mỗi lần truyền tiến (forward pass). - Nemotron 3 Super mang lại thông lượng cao gấp 7,5 lần so với Qwen3.5-122B-A10B trong các khối lượng công việc tác nhân ở thiết lập 8k-in/64k-out. - Mô hình hoàn toàn mở theo giấy phép Nvidia Nemotron Open Model License, với các checkpoint và dữ liệu huấn luyện trên Hugging Face. Nvidia ra mắt Nemotron 3 Super với mức tăng thông lượng gấp 7,5 lần so với Qwen3.5-122B Mô hình mới nhất của Nvidia chỉ kích hoạt 12,7 tỷ tham số cho mỗi lần truyền tiến bằng cách sử dụng kiến trúc Mixture-of-Experts (MoE), nghĩa là hầu hết trọng số của nó vẫn ở trạng thái nhàn rỗi trong quá trình suy luận. Lựa chọn thiết kế đó nhắm trực tiếp vào hai vấn đề mà các nhà phát triển gặp phải khi triển khai các tác nhân AI đa bước: chi phí tăng thêm của các chuỗi suy luận mở rộng và việc sử dụng token tăng vọt có thể nhân lên tới 15 lần trong các đường ống đa tác nhân. Nemotron 3 Super là mô hình thứ hai trong dòng Nemotron 3 của Nvidia, tiếp nối Nemotron 3 Nano từ tháng 12 năm 2025. Nvidia đã công bố bản phát hành vào khoảng ngày 10 tháng 3 năm 2026. Mô hình sử dụng cấu trúc lai Mamba-Transformer trên 88 lớp. Các khối Mamba-2 xử lý các chuỗi dài với hiệu suất thời gian tuyến tính, trong khi các lớp chú ý Transformer duy trì khả năng ghi nhớ chính xác. Sự kết hợp đó mang lại cho mô hình khả năng hỗ trợ gốc cho các cửa sổ ngữ cảnh lên đến một triệu token mà không gặp các hình phạt về bộ nhớ như các thiết kế chú ý thuần túy. Nvidia cũng tích hợp hệ thống định tuyến LatentMoE giúp nén các embedding token vào một không gian hạng thấp trước khi gửi chúng đến 512 chuyên gia mỗi lớp, kích hoạt 22 chuyên gia cùng một lúc. Công ty cho biết điều này cho phép số lượng chuyên gia nhiều gấp khoảng bốn lần với cùng chi phí suy luận so với các phương pháp MoE tiêu chuẩn, đồng thời cho phép chuyên môn hóa tác vụ tinh vi hơn, chẳng hạn như tách biệt logic Python khỏi việc xử lý SQL ở cấp độ chuyên gia. Các lớp Multi-Token Prediction, sử dụng hai đầu (head) chia sẻ trọng số, giúp tăng tốc quá trình tạo chuỗi suy nghĩ (chain-of-thought) và cho phép giải mã suy đoán (speculative decoding) gốc. Đối với các tác vụ có cấu trúc, Nvidia báo cáo tốc độ tạo nhanh gấp ba lần. Mô hình đã được huấn luyện trước trên 25 nghìn tỷ token qua hai giai đoạn. Giai đoạn đầu sử dụng 20 nghìn tỷ token dữ liệu rộng. Giai đoạn thứ hai sử dụng năm nghìn tỷ token chất lượng cao được tinh chỉnh cho hiệu suất chuẩn. Giai đoạn mở rộng cuối cùng trên 51 tỷ token đã mở rộng ngữ cảnh gốc lên một triệu token. Quá trình hậu huấn luyện bao gồm tinh chỉnh có giám sát trên khoảng bảy triệu mẫu và học tăng cường qua 21 môi trường với hơn 1,2 triệu lượt triển khai. Trong các bài kiểm tra chuẩn, Nemotron 3 Super đạt 83,73 điểm trên MMLU-Pro, 90,21 trên AIME25 và 60,47 trên SWE-Bench sử dụng OpenHands. Trên PinchBench, nó đạt 85,6 phần trăm, điểm số cao nhất được báo cáo trong số các mô hình mở cùng loại. Về đánh giá ngữ cảnh dài, nó đạt 91,64 trên RULER 1M. So với GPT-OSS-120B, Nemotron 3 Super mang lại thông lượng gấp 2,2 lần ở đầu vào 8k và đầu ra 64k. So với Qwen3.5-1
Trạng thái dữ liệu✓ Đã trích xuất toàn vănĐọc bài gốc (Bitcoin.com)
🔍Sự kiện tương tự trong lịch sử· Đối chiếu từ khóa + tài sản1 tin
💡 Hiện đang sử dụng đối chiếu từ khóa + tài sản (MVP) · Sau này sẽ nâng cấp lên tìm kiếm ngữ nghĩa embedding
Thông tin gốc
ID:5e28767a39
Nguồn:Bitcoin.com
Đăng:2026-04-20 02:30:44
Danh mục:Chung · Danh mục xuất neutral
Tài sản:Chưa chỉ định
Bình chọn cộng đồng:+0 /0 · ⭐ 0 quan trọng · 💬 0 bình luận
Nvidia phát hành Nemotron 3 Super, một mô hình AI mở 120B được xây dựng cho các khối lượng công việc Agentic | Feel.Trading