뉴스 목록OpenAI가 알려주는 Codex 안전하게 사용하는 법: 샌드박스 경계, 자동 승인, 보안 분류, 완벽한 기업용 배포 프레임워크
動區 BlockTempo2026-05-10 07:10:27

OpenAI가 알려주는 Codex 안전하게 사용하는 법: 샌드박스 경계, 자동 승인, 보안 분류, 완벽한 기업용 배포 프레임워크

ORIGINALOpenAI 教你如何安全使用 Codex:沙盒邊界、自動審批、安全分類,完整企業部署框架
AI 영향 분석Grok 분석 중...
📄전체 원문· trafilatura에 의해 자동 추출됨Gemini 翻譯1959 자
OpenAI는 자사 AI 코드 에이전트인 Codex를 안전하게 배포하는 내부 방식을 공개했습니다. 핵심 전략은 '샌드박스 실행 경계 제한 + 저위험 행동 자동 승인 + AI 보안 분류 에이전트의 경고 처리'로, 개발 효율성과 기업 보안 통제를 동시에 확보하는 것입니다. (이전 기사: OpenAI Codex 대규모 업데이트: Mac 백그라운드 제어, 내장 브라우저, 이미지 생성, 111개 신규 플러그인 출시) (배경 보충: OpenAI, 신규 엔지니어 에이전트 Codex 출시! AI가 기능 작성, 버그 수정, 테스트 실행 가능) 이번 보고서는 OpenAI 보안 팀이 프로덕션 환경에서 어떻게 Codex를 운영하는지 설명합니다. 이는 샌드박스 구성부터 경고 분류까지, 대규모 조직이 AI 에이전트를 도입할 때 보안 통제가 어떤 영역을 포괄해야 하는지 보여주는 실제 운영 기록입니다. OpenAI는 공식 발표를 통해 Codex 배포의 핵심 원칙은 단 하나라고 밝혔습니다. 에이전트가 명확한 기술적 경계 내에서 효율성을 유지하게 하되, 저위험 행동은 사용자의 흐름을 방해하지 않고, 고위험 행동은 반드시 멈추고 사람의 승인을 받도록 하는 것입니다. 이 원칙은 샌드박스와 승인 정책이라는 두 가지 상호 보완적 메커니즘으로 구현됩니다. 샌드박스는 Codex의 실행 공간을 정의하며, 쓰기 가능한 경로, 외부 네트워크 연결 허용 여부, 보호되는 시스템 디렉터리 등을 포함합니다. 샌드박스 외부의 동작은 승인 절차를 거쳐야 합니다. 사용자는 특정 작업을 일회성으로 승인하거나, 해당 유형의 작업을 전체 세션 동안 자동으로 통과하도록 설정할 수 있습니다. 일상적인 루틴 작업의 경우, OpenAI는 '자동 검토 모드(Auto-review mode)'를 활성화했습니다. 이 기능은 Codex가 실행하려는 작업과 최근 작업 맥락을 '자동 승인 하위 에이전트'에 전달합니다. 하위 에이전트가 저위험으로 판단하면 즉시 통과시켜 사용자 워크플로우를 중단하지 않으며, 고위험이거나 예상치 못한 결과가 우려될 경우에만 사람의 확인을 거치도록 합니다. 네트워크 통제 로직도 동일합니다. Codex는 개방형 외부 접속을 허용하지 않으며, OpenAI는 Codex의 정상적인 작업 흐름에 필요한 대상 도메인 허용 목록(Allowlist)을 유지합니다. 목록 외 도메인은 기본적으로 차단되며, 알 수 없는 도메인을 만날 경우 승인 절차가 트리거됩니다. 신원 인증 또한 통제 범위에 포함됩니다. CLI 및 MCP OAuth 자격 증명은 운영체제의 보안 키체인에 저장되며, 로그인은 ChatGPT Enterprise 워크스페이스를 강제합니다. 따라서 Codex의 작업은 ChatGPT Enterprise 규정 준수 로그 플랫폼에 포함되어 보안 팀이 통합적으로 조회할 수 있습니다. OpenAI는 모든 Shell 명령어를 동일한 위험 수준으로 보지 않고 계층화된 규칙을 수립했습니다. 엔지니어의 일상적인 개발에서 흔히 쓰이는 무해한 명령어는 샌드박스 외부에서 직접 실행할 수 있도록 허용하며, 특정 고위험 명령어는 차단하거나 강제로 승인을 받게 합니다. 이 규칙은 세 가지 계층을 통해 중첩 적용됩니다. - 클라우드 관리 요구사항 (관리자 강제 적용, 사용자 재정의 불가) - macOS 관리형 환경 설정 - 로컬 요구사항 구성 파일 이러한 아키텍처를 통해 OpenAI는 전사적 통합 기준을 유지하면서도 팀, 사용자 그룹 또는 환경 요구사항에 따라 다양한 구성 조합을 테스트할 수 있습니다. 동일한 설정이 Codex 데스크톱 앱, CLI, IDE 확장 프로그램 등 모든 로컬 인터페이스에 적용됩니다. 이는 외부 연구 결과와 직접적으로 대비됩니다. 연구에 따르면 AI가 생성한 코드의 보안 취약점 비율은 사람이 작성한 코드보다 57% 높습니다. GitHub Copilot 또한 올해 CVSS 9.6의 심각한 취약점(CVE-2025-53773)이 발견되어, 프롬프트 인젝션을 통한 원격 코드 실행이 가능함이 드러났습니다. 이러한 데이터는 기업이 AI 코드 에이전트를 도입할 때 적절한 계층적 통제가 없다면 노출 범위가 예상보다 커질 수 있음을 시사합니다. OpenAI의 방식은 AI 에이전트 자체의 판단에 의존하는 대신 통제 로직을 구성 계
데이터 상태✓ 전체 내용 추출 완료원문 읽기 (動區 BlockTempo)
🔍과거 유사 사건· 키워드 + 종목 매칭6 건
💡 현재 키워드 + 종목 매칭(MVP) 사용 중 · 추후 embedding 의미론적 검색으로 업그레이드 예정
원본 정보
ID:4dc0db756e
출처:動區 BlockTempo
발행:2026-05-10 07:10:27
분류:zh_news · 도출된 분류 zh
종목:지정되지 않음
커뮤니티 투표:+0 /0 · ⭐ 0 중요 · 💬 0 댓글
OpenAI가 알려주는 Codex 안전하게 사용하는 법: 샌드박스 경계, 자동 승인, 보안 분류, 완벽한 기업용 배포 프레임워크 | Feel.Trading