뉴스 목록Nvidia, Nemotron 3 Super를 출시, Agentic Workloads를 위해 구축된 120B Open AI 모델
Bitcoin.com2026-04-20 02:30:44

Nvidia, Nemotron 3 Super를 출시, Agentic Workloads를 위해 구축된 120B Open AI 모델

ORIGINALNvidia Releases Nemotron 3 Super, a 120B Open AI Model Built for Agentic Workloads
AI 영향 분석Grok 분석 중...
📄전체 원문· trafilatura에 의해 자동 추출됨Gemini 翻譯4419 자
Nvidia는 인공지능(AI) 에이전트를 대규모로 실행할 때 발생하는 컴퓨팅 비용을 절감하기 위해 설계된 1,200억 개의 총 파라미터를 가진 오픈 하이브리드 모델인 Nemotron 3 Super를 출시했습니다. Nvidia, 에이전트 워크로드를 위해 구축된 120B 오픈 AI 모델 Nemotron 3 Super 출시 핵심 요약: - Nvidia는 포워드 패스당 127억 개의 파라미터만 활성화하는 1,200억 파라미터 규모의 오픈 MoE 모델인 Nemotron 3 Super를 출시했습니다. - Nemotron 3 Super는 8k-in/64k-out 설정의 에이전트 워크로드에서 Qwen3.5-122B-A10B 대비 최대 7.5배 더 높은 처리량을 제공합니다. - 이 모델은 Nvidia Nemotron Open Model License 하에 완전히 공개되며, 체크포인트와 학습 데이터는 Hugging Face에서 확인할 수 있습니다. Nvidia, Qwen3.5-122B 대비 7.5배의 처리량 향상을 제공하는 Nemotron 3 Super 출시 최신 Nvidia 모델은 Mixture-of-Experts (MoE) 아키텍처를 사용하여 포워드 패스당 127억 개의 파라미터만 활성화하므로, 추론 과정에서 대부분의 가중치는 유휴 상태로 유지됩니다. 이러한 설계 선택은 개발자가 다단계 AI 에이전트를 배포할 때 직면하는 두 가지 문제, 즉 확장된 추론 체인으로 인한 추가 비용과 다중 에이전트 파이프라인에서 최대 15배까지 증가할 수 있는 토큰 사용량 급증 문제를 직접적으로 해결합니다. Nemotron 3 Super는 2025년 12월에 출시된 Nemotron 3 Nano에 이어 Nvidia의 Nemotron 3 제품군에서 두 번째로 선보이는 모델입니다. Nvidia는 2026년 3월 10일경 이 모델의 출시를 발표했습니다. 이 모델은 88개 레이어에 걸쳐 하이브리드 Mamba-Transformer 백본을 사용합니다. Mamba-2 블록은 선형 시간 효율성으로 긴 시퀀스를 처리하며, Transformer 어텐션 레이어는 정밀한 리콜을 유지합니다. 이러한 조합을 통해 모델은 순수 어텐션 설계에서 흔히 발생하는 메모리 페널티 없이 최대 100만 토큰의 컨텍스트 윈도우를 기본적으로 지원합니다. 또한 Nvidia는 토큰 임베딩을 저랭크 공간으로 압축한 후 레이어당 512개의 전문가에게 전달하여 한 번에 22개를 활성화하는 LatentMoE 라우팅 시스템을 내장했습니다. Nvidia는 이를 통해 표준 MoE 방식 대비 동일한 추론 비용으로 약 4배 더 많은 전문가를 활용할 수 있으며, 전문가 수준에서 Python 로직과 SQL 처리를 분리하는 등 더 세밀한 작업 특화가 가능하다고 설명합니다. 두 개의 공유 가중치 헤드를 사용하는 Multi-Token Prediction 레이어는 사고의 연쇄(chain-of-thought) 생성을 가속화하고 네이티브 추측 디코딩(speculative decoding)을 가능하게 합니다. 구조화된 작업에서 Nvidia는 최대 3배 더 빠른 생성 속도를 보고했습니다. 이 모델은 두 단계에 걸쳐 25조 개의 토큰으로 사전 학습되었습니다. 첫 번째 단계에서는 20조 개의 광범위한 데이터를 사용했고, 두 번째 단계에서는 벤치마크 성능을 위해 5조 개의 고품질 토큰을 사용했습니다. 510억 개의 토큰에 대한 최종 확장 단계를 통해 네이티브 컨텍스트를 100만 토큰까지 확장했습니다. 사후 학습에는 약 700만 개의 샘플에 대한 지도 미세 조정(supervised fine-tuning)과 120만 개 이상의 롤아웃을 포함한 21개 환경에서의 강화 학습이 포함되었습니다. 벤치마크에서 Nemotron 3 Super는 MMLU-Pro 83.73점, AIME25 90.21점, OpenHands를 사용한 SWE-Bench에서 60.47점을 기록했습니다. PinchBench에서는 동급 오픈 모델 중 가장 높은 점수인 85.6%를 달성했습니다. 긴 컨텍스트 평가인 RULER 1M에서는 91.64점을 기록했습니다. GPT-OSS-120B와 비교했을 때, Nemotron
데이터 상태✓ 전체 내용 추출 완료원문 읽기 (Bitcoin.com)
🔍과거 유사 사건· 키워드 + 종목 매칭1 건
💡 현재 키워드 + 종목 매칭(MVP) 사용 중 · 추후 embedding 의미론적 검색으로 업그레이드 예정
원본 정보
ID:5e28767a39
출처:Bitcoin.com
발행:2026-04-20 02:30:44
분류:일반 · 도출된 분류 neutral
종목:지정되지 않음
커뮤니티 투표:+0 /0 · ⭐ 0 중요 · 💬 0 댓글
Nvidia, Nemotron 3 Super를 출시, Agentic Workloads를 위해 구축된 120B Open AI 모델 | Feel.Trading