ニュース一覧Qwen3.6-27B オープンソース公開「Openclaw、Hermesの第一選択」:AI パフォーマンスは Claude Opus 4.5 と同等、コストは 14 分の 1 に削減
動區 BlockTempo2026-04-23 06:04:06

Qwen3.6-27B オープンソース公開「Openclaw、Hermesの第一選択」:AI パフォーマンスは Claude Opus 4.5 と同等、コストは 14 分の 1 に削減

ORIGINALQwen3.6-27B 開源發表「Openclaw、Hermes首選」:AI 表現打平Claude Opus 4.5 成本縮 14 倍
AI 影響分析Grok が分析中...
📄原文全文· trafilatura により自動抽出Gemini 翻譯2710 文字
AlibabaのQwenシリーズ最新フラッグシップであるQwen3.6-27Bが、2026年4月22日夜に正式にオープンソース化されました。この27B denseモデルは、Terminal-Bench 2.0で59.3点を記録しClaude 4.5 Opusに並びました。また、1/14未満のパラメータ数でありながら、SWE-bench Verifiedでは77.2点を記録し、前世代の397B MoEフラッグシップの76.2点を超えました。フルモデルは55.6 GBですが、Q4_K_M量子化により16.8 GBまで圧縮可能で、コンシューマー向けハードウェアでも動作します。これにより、OpenClawやHermes Agentといったローカルagentフレームワークが、初めて実用的なローカル脳を手に入れました。 (前置き:Anthropicから名指しでブロックされたことを受け、OpenClawはユーザーに対しAPI Keyの使用、またはQwenやKimiなどの代替モデルへの切り替えを推奨) (背景補足:米国のAIは「審査」を経て実験室に閉じ込められるべきか?中国は全力でオープンソースモデルを推進、その理由は?) 2026年4月22日夜、AlibabaのQwenチームはHugging Faceで密かに爆弾を投下しました。Qwen3.6-27BがApache 2.0ライセンスで正式にオープンソース化され、誰でも自由に商用利用が可能となりました。数字は平凡に見えますが、その背後にある意義は非凡です。27B denseアーキテクチャ(MoEではない)でありながら、ターミナルagentテストで初めてAnthropicのクローズドなフラッグシップであるClaude 4.5 Opusに並びました。同時に、55.6 GBというサイズで、完全に動作させるために807 GBのビデオメモリを必要とした前世代の397B MoEモンスターを打ち負かしました。ローカルデプロイ、agentの動作、コンシューマー向けハードウェアでの搭載という3つの条件を、Qwen3.6-27Bはすべて満たしています。 Qwenチームは、実際のagentのプログラミング能力を反映する10のベンチマークを選択しました。Qwen3.6-27Bの成績は以下の通りです。 3つの重要な結論を個別に強調します。第一に、Terminal-Bench 2.0で59.3点を記録しClaude 4.5 Opusに並んだこと。これは27B denseモデルがターミナルagentタスクで初めてAnthropicのクローズドなフラッグシップに追いついたことを意味し、旧版のQwen3.5-27Bの41.6点から、単世代で17.7点向上しました。第二に、SWE-bench Verifiedで77.2点を記録し、Qwen3.5-397B-A17Bの76.2点を超えたこと。27B denseが前世代の397B MoEフラッグシップを打ち負かし、モデルサイズは807 GBから55.6 GBへと14倍以上縮小しました。第三に、SkillsBenchが27.2から48.2(+77%)へ急上昇し、Claw-Eval Pass^3では60.6点を記録してClaude 4.5 Opusの59.6点を超えたこと。マルチターン、マルチステップの一貫性が今回の最大のアップグレードであり、モデルが複雑なagentタスクを連続実行する際に、途中でクラッシュしたり脱線したりしにくくなったことを示しています。 知識と推論の面でも同様に優れています。MMLU-Pro 86.2、MMLU-Redux 93.5、GPQA Diamond 87.8、AIME 2026 94.1、LiveCodeBench v6 83.9と、同パラメータ数の前世代モデルを全面的に上回りました。 Qwen3.6-27Bは純粋なdenseアーキテクチャであり、27Bのパラメータ数はMoEのactiveパラメータではなく、推論のたびに完全に起動する真のパラメータ数です。ネイティブのcontext長は262,144 tokensで、YaRN拡張により最大1,010,000 tokens(約1M)に達し、長文解析やリポジトリを跨いだ理解が必要なcoding agentにとっては必須のスペックです。フル精度のモデルは55.6 GBですが、Q4_K_M量子化を採用すればサイズ
データステータス✓ 全文抽出済み原文を読む(動區 BlockTempo)
🔍過去の類似イベント· キーワード + 銘柄照合3 件
💡 現在はキーワード + 銘柄照合(MVP)を使用しています · 今後 embedding セマンティック検索へアップグレード予定
原始情報
ID:038ec11992
ソース:動區 BlockTempo
公開:2026-04-23 06:04:06
カテゴリ:zh_news · エクスポートカテゴリ zh
銘柄:未指定
コミュニティ投票:+0 /0 · ⭐ 0 重要 · 💬 0 コメント
Qwen3.6-27B オープンソース公開「Openclaw、Hermesの第一選択」:AI パフォーマンスは Claude Opus 4.5 と同等、コストは 14 分の 1 に削減 | Feel.Trading