Danh sách tinGoogle sửa lỗi công cụ lập trình AI cho phép kẻ tấn công thực thi mã độc: Báo cáo
Decrypt2026-04-21 19:02:05

Google sửa lỗi công cụ lập trình AI cho phép kẻ tấn công thực thi mã độc: Báo cáo

ORIGINALGoogle Fixes AI Coding Tool Flaw That Let Attackers Execute Malicious Code: Report
Phân tích tác động AIGrok đang phân tích...
📄Toàn văn bài viết· Được trích xuất tự động bởi trafilaturaGemini 翻譯3222 từ
Tóm tắt - Các nhà nghiên cứu đã phát hiện một lỗ hổng prompt injection trong nền tảng lập trình AI Antigravity của Google. - Lỗ hổng này có thể cho phép kẻ tấn công thực thi các lệnh ngay cả khi Secure Mode của nền tảng đã được bật. - Google đã khắc phục sự cố vào ngày 28 tháng 2 sau khi các nhà nghiên cứu tiết lộ vào tháng 1, theo Pillar Security. Google đã vá một lỗ hổng trong nền tảng lập trình AI Antigravity của mình mà các nhà nghiên cứu cho biết có thể cho phép kẻ tấn công chạy các lệnh trên máy tính của nhà phát triển thông qua một cuộc tấn công prompt injection. Theo báo cáo từ công ty an ninh mạng Pillar Security, lỗ hổng liên quan đến công cụ tìm kiếm tệp find_by_name của Antigravity, công cụ này đã chuyển đầu vào của người dùng trực tiếp đến một tiện ích dòng lệnh cơ bản mà không qua kiểm duyệt. Điều đó cho phép đầu vào độc hại chuyển đổi một tác vụ tìm kiếm tệp thành một tác vụ thực thi lệnh, cho phép thực thi mã từ xa. "Kết hợp với khả năng tạo tệp của Antigravity như một hành động được cho phép, điều này tạo ra một chuỗi tấn công hoàn chỉnh: thiết lập một tập lệnh độc hại, sau đó kích hoạt nó thông qua một tìm kiếm có vẻ hợp lệ, tất cả mà không cần sự tương tác bổ sung của người dùng sau khi prompt injection được thực hiện," các nhà nghiên cứu của Pillar Security viết. Ra mắt vào tháng 11 năm ngoái, Antigravity là môi trường phát triển được hỗ trợ bởi AI của Google, được thiết kế để giúp các lập trình viên viết, kiểm thử và quản lý mã với sự hỗ trợ của các tác nhân phần mềm tự hành. Pillar Security đã tiết lộ vấn đề này cho Google vào ngày 7 tháng 1 và Google đã xác nhận báo cáo cùng ngày, đánh dấu vấn đề đã được khắc phục vào ngày 28 tháng 2. Google đã không phản hồi ngay lập tức yêu cầu bình luận từ Decrypt. Các cuộc tấn công prompt injection xảy ra khi các hướng dẫn ẩn được nhúng trong nội dung khiến hệ thống AI thực hiện các hành động ngoài ý muốn. Vì các công cụ AI thường xử lý các tệp hoặc văn bản bên ngoài như một phần của quy trình làm việc bình thường, hệ thống có thể hiểu các hướng dẫn đó là các lệnh hợp lệ, cho phép kẻ tấn công kích hoạt các hành động trên máy tính của người dùng mà không cần truy cập trực tiếp hoặc tương tác bổ sung. Mối đe dọa từ các cuộc tấn công prompt injection đối với các mô hình ngôn ngữ lớn đã trở thành tâm điểm chú ý vào mùa hè năm ngoái khi nhà phát triển ChatGPT là OpenAI cảnh báo rằng tác nhân ChatGPT mới của họ có thể bị xâm phạm. "Khi bạn đăng nhập tác nhân ChatGPT vào các trang web hoặc bật các trình kết nối, nó sẽ có thể truy cập dữ liệu nhạy cảm từ các nguồn đó, chẳng hạn như email, tệp hoặc thông tin tài khoản," OpenAI viết trong một bài đăng trên blog. Để chứng minh vấn đề của Antigravity, các nhà nghiên cứu đã tạo một tập lệnh kiểm thử bên trong không gian làm việc của dự án và kích hoạt nó thông qua công cụ tìm kiếm. Khi được thực thi, tập lệnh đã mở ứng dụng máy tính của máy tính, cho thấy chức năng tìm kiếm có thể bị biến thành một cơ chế thực thi lệnh. "Quan trọng là, lỗ hổng này vượt qua Secure Mode của Antigravity, cấu hình bảo mật hạn chế nhất của sản phẩm," báo cáo cho biết. Những phát hiện này làm nổi bật một thách thức bảo mật rộng lớn hơn mà các công cụ phát triển được hỗ trợ bởi AI phải đối mặt khi chúng bắt đầu thực hiện các tác vụ một cách tự chủ. "Ngành công nghiệp phải vượt ra ngoài các biện pháp kiểm soát dựa trên làm sạch dữ liệu để hướng tới sự cô lập thực thi. Mọi tham số công cụ gốc tiếp cận lệnh shell đều là một điểm tiêm nhiễm tiềm ẩn," Pillar Security cho biết. "Việc kiểm toán cho loại lỗ hổng này không còn là tùy chọn, và đó là điều kiện tiên quyết để cung cấp các tính năng tác nhân một cách an toàn."
Trạng thái dữ liệu✓ Đã trích xuất toàn vănĐọc bài gốc (Decrypt)
🔍Sự kiện tương tự trong lịch sử· Đối chiếu từ khóa + tài sản2 tin
💡 Hiện đang sử dụng đối chiếu từ khóa + tài sản (MVP) · Sau này sẽ nâng cấp lên tìm kiếm ngữ nghĩa embedding
Thông tin gốc
ID:ea920209dd
Nguồn:Decrypt
Đăng:2026-04-21 19:02:05
Danh mục:Chung · Danh mục xuất neutral
Tài sản:Chưa chỉ định
Bình chọn cộng đồng:+0 /0 · ⭐ 0 quan trọng · 💬 0 bình luận