要闻列表据报道,Google 修复了 AI 编码工具中的一个漏洞,该漏洞曾允许攻击者执行恶意代码
Decrypt2026-04-21 19:02:05

据报道,Google 修复了 AI 编码工具中的一个漏洞,该漏洞曾允许攻击者执行恶意代码

ORIGINALGoogle Fixes AI Coding Tool Flaw That Let Attackers Execute Malicious Code: Report
AI 影响分析Grok 分析中...
📄完整原文· 由 trafilatura 自动抓取Gemini 翻譯3222 字
简讯 - 研究人员在 Google 的 Antigravity AI 编码平台中发现了一个提示词注入(prompt injection)漏洞。 - 该缺陷可能允许攻击者即使在启用平台 Secure Mode 的情况下也能执行命令。 - Pillar Security 表示,研究人员于 1 月披露该问题后,Google 已于 2 月 28 日修复。 Google 修复了其 Antigravity AI 编码平台中的一个漏洞,研究人员称该漏洞可能允许攻击者通过提示词注入攻击在开发者的机器上运行命令。 根据网络安全公司 Pillar Security 的一份报告,该缺陷涉及 Antigravity 的 find_by_name 文件搜索工具,该工具将用户输入直接传递给底层的命令行实用程序,而未进行验证。这使得恶意输入能够将文件搜索转换为命令执行任务,从而实现远程代码执行。 “结合 Antigravity 将创建文件作为许可操作的能力,这形成了一个完整的攻击链:植入恶意脚本,然后通过看似合法的搜索触发它,一旦提示词注入成功,无需额外的用户交互,”Pillar Security 的研究人员写道。 Antigravity 于去年 11 月推出,是 Google 的 AI 驱动开发环境,旨在帮助程序员在自主软件代理的协助下编写、测试和管理代码。Pillar Security 于 1 月 7 日向 Google 披露了该问题,Google 当天确认了该报告,并于 2 月 28 日将该问题标记为已修复。 Google 没有立即回应 Decrypt 的置评请求。 提示词注入攻击发生在嵌入在内容中的隐藏指令导致 AI 系统执行非预期操作时。由于 AI 工具通常将外部文件或文本作为正常工作流程的一部分进行处理,系统可能会将这些指令解释为合法命令,从而允许攻击者在无需直接访问或额外交互的情况下触发用户机器上的操作。 去年夏天,当 ChatGPT 开发商 OpenAI 警告其新的 ChatGPT 代理可能受到威胁时,大型语言模型面临的提示词注入攻击威胁再次受到关注。 “当您将 ChatGPT 代理登录到网站或启用连接器时,它将能够访问来自这些来源的敏感数据,例如电子邮件、文件或账户信息,”OpenAI 在一篇博客文章中写道。 为了演示 Antigravity 的问题,研究人员在项目工作区内创建了一个测试脚本,并通过搜索工具触发了它。执行时,该脚本打开了计算机的计算器应用程序,表明搜索功能可以被转换为命令执行机制。 “至关重要的是,此漏洞绕过了 Antigravity 的 Secure Mode,这是该产品限制性最强的安全配置,”报告称。 这些发现凸显了 AI 驱动的开发工具在开始自主执行任务时所面临的更广泛的安全挑战。 “行业必须超越基于清理的控制,转向执行隔离。每一个到达 shell 命令的原生工具参数都是一个潜在的注入点,”Pillar Security 表示。“对此类漏洞进行审计已不再是可选项,而是安全发布代理功能的前提条件。”
数据状态✓ 已抓取全文阅读原文(Decrypt)
🔍历史类似事件· 关键词 + 标的比对2 则
💡 目前用关键词 + 标的比对(MVP)· 之后会升级为 embedding 语义搜寻
原始信息
ID:ea920209dd
来源:Decrypt
发布:2026-04-21 19:02:05
分类:一般 · 导出分类 neutral
标的:未指定
社群投票:+0 /0 · ⭐ 0 重要 · 💬 0 留言