Daftar beritaOpenAI mengajari Anda cara menggunakan Codex dengan aman: batas sandbox, persetujuan otomatis, klasifikasi keamanan, kerangka kerja penerapan perusahaan yang lengkap
動區 BlockTempo2026-05-10 07:10:27

OpenAI mengajari Anda cara menggunakan Codex dengan aman: batas sandbox, persetujuan otomatis, klasifikasi keamanan, kerangka kerja penerapan perusahaan yang lengkap

ORIGINALOpenAI 教你如何安全使用 Codex:沙盒邊界、自動審批、安全分類,完整企業部署框架
Analisis Dampak AIGrok sedang menganalisis...
📄Artikel lengkap· Diambil secara otomatis oleh trafilaturaGemini 翻譯1959 kata
OpenAI mengungkapkan bagaimana mereka secara internal menerapkan agen kode AI mereka, Codex, dengan aman. Strategi intinya adalah "pembatasan eksekusi sandbox + persetujuan otomatis untuk tindakan berisiko rendah + agen klasifikasi keamanan AI untuk menangani peringatan", yang memungkinkan efisiensi pengembangan dan kontrol keamanan perusahaan berjalan selaras. (Ringkasan sebelumnya: Peningkatan besar OpenAI Codex: kontrol latar belakang Mac, browser bawaan, pembuatan gambar, 111 plugin baru diluncurkan) (Latar belakang tambahan: OpenAI meluncurkan agen insinyur baru Codex! AI dapat menulis fungsi, memperbaiki Bug, dan menjalankan pengujian) Laporan ini menjelaskan bagaimana tim keamanan internal mereka menjalankan Codex di lingkungan produksi. Ini adalah catatan operasional praktis, mulai dari konfigurasi sandbox hingga klasifikasi peringatan, yang mengungkapkan lapisan mana yang perlu dicakup oleh kontrol keamanan saat agen AI diadopsi oleh organisasi besar. OpenAI minggu ini merilis laporan penerapan internal. Dalam pengumuman resminya, OpenAI menyatakan bahwa hanya ada satu prinsip inti dalam penerapan Codex: menjaga agen tetap efisien dalam batasan teknis yang jelas; tindakan berisiko rendah tidak perlu mengganggu pengguna, sementara tindakan berisiko tinggi harus dihentikan untuk menunggu tinjauan manusia. Setelah prinsip ini diterapkan, prinsip tersebut dibagi menjadi dua mekanisme yang saling melengkapi: sandbox dan strategi persetujuan. Sandbox bertanggung jawab untuk mendefinisikan ruang eksekusi Codex, termasuk jalur mana yang dapat ditulis, apakah akses internet diizinkan, dan direktori sistem mana yang dilindungi. Tindakan di luar sandbox baru memerlukan proses persetujuan. Pengguna dapat memberikan persetujuan satu kali untuk tindakan tertentu, atau menyetujui agar jenis tindakan tersebut berjalan secara otomatis selama sesi kerja berlangsung. Untuk operasi rutin sehari-hari, OpenAI mengaktifkan "Auto-review mode". Fitur ini menyinkronkan tindakan yang direncanakan Codex dan konteks operasi terkini ke "sub-agen persetujuan otomatis". Jika sub-agen menilai risikonya rendah, tindakan tersebut langsung diizinkan tanpa mengganggu alur kerja pengguna; jika dinilai berisiko tinggi atau memiliki konsekuensi yang tidak terduga, tindakan tersebut akan ditingkatkan ke konfirmasi manual. Logika kontrol jaringan juga serupa. Codex bukanlah akses eksternal terbuka; OpenAI memelihara daftar izin (allowlist) yang mencantumkan domain target yang diperlukan dalam alur kerja normal Codex. Domain di luar daftar diblokir secara default, dan jika menemui domain yang tidak dikenal, proses persetujuan akan dipicu. Autentikasi identitas juga dimasukkan ke dalam cakupan kontrol. Kredensial CLI dan MCP OAuth disimpan di gantungan kunci keamanan sistem operasi, login wajib melalui ChatGPT Enterprise Workspace, sehingga operasi Codex dimasukkan ke dalam platform log kepatuhan ChatGPT Enterprise, yang dapat ditinjau secara terpadu oleh tim keamanan. OpenAI tidak menganggap semua perintah Shell memiliki risiko yang sama, melainkan membangun serangkaian aturan bertingkat. Perintah tidak berbahaya yang umum dalam pengembangan harian insinyur diizinkan untuk dijalankan langsung di luar sandbox tanpa persetujuan. Perintah berisiko tinggi tertentu langsung diblokir atau wajib melalui persetujuan. Aturan ini berlaku melalui tiga lapisan yang ditumpuk: - Persyaratan manajemen cloud (ditegakkan oleh administrator, tidak dapat diganti oleh pengguna) - Preferensi terkelola macOS - Profil persyaratan lokal Arsitektur ini memungkinkan OpenAI untuk mempertahankan garis dasar yang seragam di seluruh perusahaan, sambil menguji kombinasi konfigurasi yang berbeda sesuai dengan kebutuhan tim, grup pengguna, atau lingkungan. Pengaturan yang sama berlaku untuk aplikasi desktop Codex, CLI, serta semua antarmuka lokal seperti ekstensi IDE. Hal ini sangat kontras dengan latar belakang penelitian eksternal: penelitian menunjukkan bahwa proporsi kerentanan keamanan dalam kode yang dihasilkan AI 57% lebih tinggi daripada kode yang ditulis manusia. GitHub Copilot tahun ini juga terungkap memiliki kerentanan serius CVSS 9.6 (CVE-2025-53773), yang dapat mencapai eksekusi kode jarak jauh melalui injeksi prompt. Data ini menunjukkan bahwa ketika perusahaan mengadopsi agen kode AI, jika tidak ada kontrol bertingkat yang sesuai, permukaan paparan akan melebihi ekspektasi. Pendekatan OpenAI adalah menulis logika kontrol ke dalam lapisan konfigurasi, alih-alih mengandalkan penilaian agen AI itu sendiri, menjadikan penegakan aturan sebagai fakta teknis, bukan kebiasaan operasional. OpenAI menekankan dalam pengumuman resminya bahwa sebaik apa pun kontrol keamanan dilakukan, visibilitas tetap diperlukan setelah penerapan. Log keamanan tradisional dapat menjawab "apa yang terjadi", seperti program tertentu dimulai, file tertentu diubah, atau koneksi jaringan dicoba. Namun, yang benar-benar perlu diketahui oleh personel keamanan adalah "mengapa Codex melakukan ini
Status data✓ Teks lengkap telah diambilBaca artikel asli (動區 BlockTempo)
🔍Peristiwa serupa dalam sejarah· Pencocokan kata kunci + aset6 berita
💡 Saat ini menggunakan pencocokan kata kunci + aset (MVP) · Akan ditingkatkan ke pencarian semantik embedding di masa mendatang
Informasi mentah
ID:4dc0db756e
Sumber:動區 BlockTempo
Diterbitkan:2026-05-10 07:10:27
Kategori:zh_news · Kategori ekspor zh
Aset:Tidak ditentukan
Voting komunitas:+0 /0 · ⭐ 0 Penting · 💬 0 Komentar