要聞列表每次查詢 2 美分勝 GPT-5.4:Perplexity 公開搜尋 Agent 後訓練配方
動區 BlockTempo2026-04-23 05:46:25

每次查詢 2 美分勝 GPT-5.4:Perplexity 公開搜尋 Agent 後訓練配方

AI 影響分析Grok 分析中...
📄完整原文· 由 trafilatura 自動擷取Gemini 翻譯1829 字
Perplexity 公開搜尋 Agent 後訓練流程,基於開源 Qwen3.5 的模型在搜尋準確率上超越 GPT-5.4,同等任務成本僅需 2.0 美分,不及 GPT-5.4 的四分之一。 (前情提要:Perplexity Personal Computer 上線:讓 AI 接管 Mac 本機,$200 月費向 Max 使用者開放) (背景補充:不會寫程式也能用?Perplexity Computer 讓 AI 直接替你交付成果、自動跑工作流程) 源模型能不能打贏閉源旗艦模型?Perplexity 用一份技術報告給了一個讓業界難以忽視的答案。這家以 AI 搜尋起家的公司,近日完整公開了旗下網頁搜尋 Agent 的後訓練方法論。 整個訓練流程的底座,是兩個阿里巴巴通義千問系列的開源模型:Qwen3.5-122B-A10B 和 Qwen3.5-397B-A17B。光是這個選擇就已經表態 Perplexity 不打算付費使用 GPT 或 Claude 當骨幹,而是從開源模型出發,自己雕出搜尋能力。 訓練分兩個階段。第一階段是監督微調(SFT)。翻譯過來就是,先給模型大量「標準答案」,讓它把基本行為規矩學好:回答要符合指令、語言要一致、格式不能亂。這個階段不追求聰明,只追求可靠 — 就像先把新員工的工作習慣養正,才輪到訓練判斷力。 第二階段是強化學習(RL),用的是 GRPO 演算法。讓模型在真實任務裡反覆嘗試,每次根據結果的好壞調整策略。 GRPO 的特別之處在於不需要另外訓練一個「評審 AI」,而是直接把同批次的輸出互相比較,從中提取學習訊號。這讓訓練成本更低,也更容易規模化。 RL 的訓練資料由兩條線構成。一條是 Perplexity 自行合成的多跳推理題庫。答題者必須先搜尋第一個事實,再根據那個事實去搜尋下一個,反覆 2 到 4 次才能得出最終答案。 這類問題專門訓練模型的「鏈式推理」能力,讓它學會把搜尋當成一連串有邏輯的步驟,而不是一次性的關鍵字查詢。 另一條是基於評分標準(rubric)的對話資料,把「遵循格式」「保持語言一致」等 SFT 建立的好習慣,轉化為強化學習階段同樣可以量化的條件,防止模型在「追高分」的過程中把基本紀律丟掉。 RL 訓練最大的難題,是如何定義「好的搜尋行為」。給分標準訂得不好,模型很容易學會表面上看起來流暢、實際上卻答錯了的回應。說服力和準確性是兩件事,但 AI 的訓練訊號很容易把兩者混在一起。 Perplexity 的解法稱為門控聚合。核心邏輯是:偏好得分必須在答案本身正確的前提下才會被計算。如果模型答錯,無論它的輸出看起來多有條理,也得不到任何加分。 這道「門」把事實準確性放在所有偏好評估之前,確保獎勵訊號始終繫結在「有沒有答對」這件事上,而不是「說話方式有沒有討喜」。 效率懲罰的邏輯同樣值得注意。判斷一次搜尋是否「太多工具呼叫」的基準,不是固定數字,而是同批次中其他答對的模型平均用了幾次。白話說就是:你的同組同學用三次搜尋答對了,你用了七次也答對了,你仍然會被扣效率分。 評測結果用的是 FRAMES,一個業界認可的多跳搜尋基準,題目設計要求跨多個來源、分多個步驟推理才能作答。在這個基準上,後訓練後的 Qwen3.5-397B-SFT-RL 即使只用一次工具呼叫,準確率就達到 57.3%,超越 GPT-5.4 和 Claude Sonnet 4.6 各約 5 個百分點。 但準確率只是敘事的第一層。真正引人注意的是成本欄位的數字。把工具呼叫上限放寬到四次時,三個模型的準確率分別是:Qwen3.5-397B-SFT-RL 73.9%、GPT-5.4 67.8%、Claude Sonnet 4.6 62.4%。 準確率最高,這一點已經夠有競爭力。但每次查詢的費用分別是 2
資料狀態✓ 已擷取全文閱讀原文(動區 BlockTempo)
🔍歷史類似事件· 關鍵字 + 標的比對6 則
💡 目前用關鍵字 + 標的比對(MVP)· 之後會升級為 embedding 語意搜尋
原始資訊
ID:0a49d05ded
來源:動區 BlockTempo
發佈:2026-04-23 05:46:25
分類:zh_news · 導出分類 zh
標的:未指定
社群投票:+0 /0 · ⭐ 0 重要 · 💬 0 留言
每次查詢 2 美分勝 GPT-5.4:Perplexity 公開搜尋 Agent 後訓練配方 | Feel.Trading