要聞列表據報導,Google 修復了 AI 編碼工具漏洞,該漏洞曾允許攻擊者執行惡意程式碼
Decrypt2026-04-21 19:02:05

據報導,Google 修復了 AI 編碼工具漏洞,該漏洞曾允許攻擊者執行惡意程式碼

ORIGINALGoogle Fixes AI Coding Tool Flaw That Let Attackers Execute Malicious Code: Report
AI 影響分析Grok 分析中...
📄完整原文· 由 trafilatura 自動擷取Gemini 翻譯3222 字
簡要說明 - 研究人員在 Google 的 Antigravity AI 編碼平台中發現了一個提示詞注入(prompt injection)漏洞。 - 該漏洞可能允許攻擊者即使在啟用平台 Secure Mode 的情況下也能執行指令。 - Pillar Security 表示,Google 在研究人員於 1 月披露該問題後,已於 2 月 28 日修復。 Google 已修復其 Antigravity AI 編碼平台中的一個漏洞,研究人員稱該漏洞可能允許攻擊者透過提示詞注入攻擊在開發者的機器上執行指令。 根據網路安全公司 Pillar Security 的報告,該缺陷涉及 Antigravity 的 find_by_name 檔案搜尋工具,該工具在未經驗證的情況下將使用者輸入直接傳遞給底層的命令列工具。這使得惡意輸入能將檔案搜尋轉換為指令執行任務,從而實現遠端程式碼執行。 Pillar Security 的研究人員寫道:「結合 Antigravity 將建立檔案視為許可操作的能力,這形成了一個完整的攻擊鏈:先部署惡意腳本,然後透過看似合法的搜尋來觸發它,且一旦提示詞注入成功,無需額外的使用者互動。」 Antigravity 於去年 11 月推出,是 Google 的 AI 驅動開發環境,旨在協助程式設計師在自主軟體代理的輔助下編寫、測試和管理程式碼。Pillar Security 於 1 月 7 日向 Google 披露了該問題,Google 當天確認了報告,並於 2 月 28 日將該問題標記為已修復。 Google 未立即回應 Decrypt 的置評請求。 提示詞注入攻擊發生在嵌入內容中的隱藏指令導致 AI 系統執行非預期操作時。由於 AI 工具通常將外部檔案或文字作為正常工作流程的一部分進行處理,系統可能會將這些指令解釋為合法指令,從而允許攻擊者在無需直接存取或額外互動的情況下,在使用者機器上觸發操作。 大型語言模型面臨的提示詞注入攻擊威脅在去年夏天重新受到關注,當時 ChatGPT 開發商 OpenAI 警告其新的 ChatGPT agent 可能會受到威脅。 OpenAI 在一篇部落格文章中寫道:「當您將 ChatGPT agent 登入網站或啟用連接器時,它將能夠存取這些來源中的敏感資料,例如電子郵件、檔案或帳戶資訊。」 為了演示 Antigravity 的問題,研究人員在專案工作區內建立了一個測試腳本,並透過搜尋工具觸發它。執行時,該腳本開啟了電腦的計算機應用程式,顯示搜尋功能可以被轉變為指令執行機制。 報告指出:「關鍵在於,此漏洞繞過了 Antigravity 的 Secure Mode,即該產品限制最嚴格的安全配置。」 這些發現凸顯了 AI 驅動開發工具在開始自主執行任務時所面臨的更廣泛安全挑戰。 Pillar Security 表示:「業界必須超越基於清理(sanitization)的控制,轉向執行隔離。每一個到達 shell 指令的原生工具參數都是潛在的注入點。針對此類漏洞進行審計已不再是可選項,而是安全發布代理功能(agentic features)的先決條件。」
資料狀態✓ 已擷取全文閱讀原文(Decrypt)
🔍歷史類似事件· 關鍵字 + 標的比對2 則
💡 目前用關鍵字 + 標的比對(MVP)· 之後會升級為 embedding 語意搜尋
原始資訊
ID:ea920209dd
來源:Decrypt
發佈:2026-04-21 19:02:05
分類:一般 · 導出分類 neutral
標的:未指定
社群投票:+0 /0 · ⭐ 0 重要 · 💬 0 留言