뉴스 목록Meituan이 차세대 대규모 언어 모델 'LongCat-2.0-Preview'를 조용히 출시했습니다! 중국 내 최대 컴퓨팅 파워 학습 기록을 경신했으며, AI Agent에 특화되어 있습니다.
動區 BlockTempo2026-04-28 11:30:05

Meituan이 차세대 대규모 언어 모델 'LongCat-2.0-Preview'를 조용히 출시했습니다! 중국 내 최대 컴퓨팅 파워 학습 기록을 경신했으며, AI Agent에 특화되어 있습니다.

ORIGINAL美團低調上線新一代大模型「LongCat-2.0-Preview」!創中國算力最大訓練紀錄,專攻 AI Agent
AI 영향 분석Grok 분석 중...
📄전체 원문· trafilatura에 의해 자동 추출됨Gemini 翻譯1288 자
조용히 대형 사고를 쳤다! Meituan은 최근 공식적인 홍보나 오픈소스 공개 없이 극도로 조용한 상태에서 차세대 대규모 모델인 'LongCat-2.0-Preview'를 조용히 출시했다. AI Agent를 위해 특별히 설계된 이 거대 모델은 백만 단위의 컨텍스트 처리 능력을 갖췄을 뿐만 아니라, 업계 관계자에 따르면 5만~6만 장에 달하는 '국산 연산 카드(국산 컴퓨팅 가속기)'를 동원해 훈련된 것으로 알려져 국산 최대 규모 연산 훈련 기록을 세웠다. 현재 이 모델은 초대 기반 테스트만 가능하며, 매일 1,000만 개의 무료 Token 한도를 제공한다. (이전 기사: JP Morgan: AI는 일자리를 뺏는 것이 아니라 생산성 증폭기이며, 수요 확장이 고용의 핵심이다) (배경 보충: 수집용 카드 거래의 온체인화 가능성? Renaiss 플랫폼 5개월 만에 거래액 1,000만 달러 돌파, 2차 시장 활성화) 글로벌 AI 군비 경쟁이 격화되는 가운데, 중국의 거대 기술 기업 Meituan은 극도로 조용하면서도 충격적인 방식으로 근육을 과시했다. 최근 여러 업계 관계자와 개발자들은 Meituan의 LongCat API 플랫폼에 'LongCat-2.0-Preview'라는 새로운 모델이 조용히 올라온 것을 발견했다. 업데이트 로그에는 4월 20일로 날짜가 적혀 있지만, 놀랍게도 Meituan은 지금까지 어떠한 공식 보도자료도 내지 않았으며 기술 보고서나 오픈소스 코드도 공개하지 않은 채 현재 API 형태로만 초대 기반 테스트를 제공하고 있다. Meituan의 LongCat 시리즈 발전사를 되돌아보면, 2025년부터 활발했던 Flash-Chat(560B MoE), Flash-Thinking, Omni 등의 버전은 출시 때마다 상세한 공식 블로그와 기술 백서가 동반되었고, Hugging Face와 GitHub에 오픈소스로 공개되었다. 그러나 이번 세대교체를 이룬 2.0 버전에서 Meituan은 '조용히 실속을 챙기는' 전략을 선택했다. 공식적인 짧은 업데이트 로그에 따르면, LongCat-2.0-Preview는 생산성을 위해 탄생했으며 세 가지 핵심 능력을 명확히 명시했다. - Agent 개발 지향: Tool Calling, 다단계 추론 및 긴 컨텍스트 작업에 대한 네이티브 지원. - 자동화 생산성: 코드 생성, 자동화 워크플로우 및 복잡한 명령어 실행에 매우 능함. - 심층 생태계 통합: Claude Code, OpenClaw, OpenCode 및 Kilo Code와 같은 최첨단 도구와 깊이 있게 통합됨. 4월 24일 더 많은 매체와 내부 관계자들의 폭로가 이어지면서 이 신비로운 모델의 실체가 드러나기 시작했다. 알려진 바에 따르면, LongCat-2.0-Preview는 MoE(Mixture of Experts) 아키텍처를 채택했으며 총 파라미터가 1조 단위를 돌파했다. 파라미터 규모와 활성화 파라미터 수는 같은 날 충격적으로 발표된 DeepSeek V4와 거의 같은 수준이다. 동시에 이 모델은 최대 1M(백만) 컨텍스트 윈도우를 지원하여 한 번에 수백만 자의 방대한 입력을 처리할 수 있으며, 전체적인 능력은 GPT-5.5 등 국제적인 최첨단 대규모 모델을 정조준하고 있다. 모델 자체의 거대한 파라미터보다 더 전략적인 의미를 갖는 것은 그 이면의 연산 인프라이다. 관계자에 따르면 LongCat-2.0-Preview의 훈련과 추론은 '전 과정'이 중국 국산 연산 클러스터를 기반으로 완료되었다. Meituan은 이를 위해 무려 5만~6만 장의 국산 가속 카드를 동원한 것으로 알려졌다. 이는 NVIDIA 등 해외 고급 GPU에 대한 의존도를 완전히 탈피했을 뿐만 아니라, 지금까지 국산 연산 자원으로 완료된 '최대 규모 대규모 모델 훈련 기록'을 단숨에 경신했다. 현재 이 모델은 공식 홈페이지(longcat.ai)에서 초대 기반 테스트를 진행 중이며, 개발자들이 체험해 볼 수 있도록 매일 1,000만 개의 무료 Token 한도를 파격적으로 제공하고 있다.
데이터 상태✓ 전체 내용 추출 완료원문 읽기 (動區 BlockTempo)
🔍과거 유사 사건· 키워드 + 종목 매칭6 건
💡 현재 키워드 + 종목 매칭(MVP) 사용 중 · 추후 embedding 의미론적 검색으로 업그레이드 예정
원본 정보
ID:7287866c48
출처:動區 BlockTempo
발행:2026-04-28 11:30:05
분류:zh_news · 도출된 분류 zh
종목:지정되지 않음
커뮤니티 투표:+0 /0 · ⭐ 0 중요 · 💬 0 댓글
Meituan이 차세대 대규모 언어 모델 'LongCat-2.0-Preview'를 조용히 출시했습니다! 중국 내 최대 컴퓨팅 파워 학습 기록을 경신했으며, AI Agent에 특화되어 있습니다. | Feel.Trading