要聞列表Raindrop Workshop 用 Codex 幫你的 AI Agent 自動找 bug 並修復(免費開源)
動區 BlockTempo2026-05-15 01:43:44

Raindrop Workshop 用 Codex 幫你的 AI Agent 自動找 bug 並修復(免費開源)

AI 影響分析Grok 分析中...
📄完整原文· 由 trafilatura 自動擷取1609 字
AI Agent 開發者工具公司 Raindrop 本週開源本地調試器 Workshop(v0.1.6),讓開發者可即時追蹤 Agent 每個 token 輸出和工具呼叫,並透過 MCP 讓 Claude Code 自動讀取、撰寫測試與修復。 (前情提要:Claude 寫程式瘋狂犯錯裝傻?改造 Andrej Karpathy 的12 條規則幫你把錯誤率從 41% 砍到 3%) (背景補充:Anthropic 推出「Claude for Small Business」:瞄準中小企業 AI 自動化工作) 你開啟日誌,看到的是一堆 API 呼叫和 token 數字,但沒有任何線索告訴你哪個決策走錯了。 的 AI Agent 剛跑出一個奇怪的結果。它選了一個你沒有預期的工具,輸出了一段語義含糊的回應。Raindrop 在 5 月 14 日發布了一個開源工具,試圖讓這個場景不再發生:一個完全本地端、完全免費的 AI Agent 偵錯程式 Workshop。讓開發者可以即時追蹤 Agent 每一個 token 輸出和工具呼叫,然後把除錯這件事本身,交給 Claude Code 或 Codex 來做。 傳統軟體除錯有斷點、有完整的呼叫堆疊、有確定性的執行路徑。AI Agent 的除錯不一樣。它的行為是機率性的,同樣的輸入在不同執行下可能走出完全不同的路;它的決策是在多層 LLM 呼叫之間分散形成的,單靠終端輸出幾乎看不出任何邏輯。 問題的本質是:你不是在找「哪一行程式碼寫錯了」,而是在找「Agent 在某個特定的上下文組合下做出了一個非預期的判斷,是在哪一步出了問題」。這種問題,靠傳統 debugger 是找不到答案的。 現有解法通常只有兩條路: - 一是雲端監控平台,把 trace 送到第三方服務用儀錶板分析 - 二是在程式碼裡塞滿自定義 logging 邏輯 前者對有資料隱私顧慮的開發者不友善,後者費時費力,每次框架升級都要維護一套新的 logging 基礎設施。而且兩者都有一個共同問題:它們告訴你「發生了什麼」,但不幫你「修好它」。 Workshop 選擇了第三條路:完全本地端執行,不傳送任何資料到外部伺服器,開源,免費,讓 AI 直接參與除錯迴圈。 啟動後,Workshop 在本地執行一個視覺化介面,並對外暴露一個 MCP(Model Context Protocol)Server。MCP 翻譯過來就是「讓 AI 工具能夠呼叫外部能力的標準通訊協定」——它是 Claude Code 等 AI 編碼工具讀取外部資料的橋梁。 一旦接入支援的 SDK,Agent 的每個執行節點 — 每個 token 輸出、每個工具呼叫、每個決策分支 — 都以串流方式即時出現在 localhost:5899 ,不需要 polling,不需要手動重整。 用直白的話說,就是在你的電腦本地開一個監控視窗,讓你像看直播一樣,即時看到 AI Agent 在做什麼。 Workshop 最關鍵的設計,是把 Claude Code 等設計助手引進除錯迴圈。由於 Workshop 暴露了 MCP Server,Claude Code 可以直接讀取 trace 內容,根據這些 trace 撰寫 eval 測試,把測試執行起來,觀察失敗的斷言,回頭修改 Agent 的程式碼,再重新執行——直到所有測試透過。 Raindrop 稱這個迴圈為「自我修復 eval 迴圈」。整個過程在本地閉環,Claude Code 讀 trace、寫 eval、看失敗、改程式、重跑,不需要開發者手動介入每一個步驟。 Workshop 還支援 Replay 功能:把線上環境的 trace 拉回本地,對著真實程式碼重新執行,做回歸測試。這對「生產環境出錯但本地重現不了」的情況特別有用,直接拿真實 trace 跑,省去構造復現場景的時間。
資料狀態✓ 已擷取全文閱讀原文(動區 BlockTempo)
🔍歷史類似事件· 關鍵字 + 標的比對6 則
💡 目前用關鍵字 + 標的比對(MVP)· 之後會升級為 embedding 語意搜尋
原始資訊
ID:f6d4f23309
來源:動區 BlockTempo
發佈:2026-05-15 01:43:44
分類:zh_news · 導出分類 zh
標的:未指定
社群投票:+0 /0 · ⭐ 0 重要 · 💬 0 留言