ニュース一覧OpenAIが教えるCodexの安全な利用方法:サンドボックスの境界、自動承認、セキュリティ分類、完全なエンタープライズ導入フレームワーク
動區 BlockTempo2026-05-10 07:10:27

OpenAIが教えるCodexの安全な利用方法:サンドボックスの境界、自動承認、セキュリティ分類、完全なエンタープライズ導入フレームワーク

ORIGINALOpenAI 教你如何安全使用 Codex:沙盒邊界、自動審批、安全分類,完整企業部署框架
AI 影響分析Grok が分析中...
📄原文全文· trafilatura により自動抽出Gemini 翻譯1959 文字
OpenAIは、自社のAIコードエージェントであるCodexを安全にデプロイするための内部手法を公開しました。その中核となる戦略は「サンドボックスによる実行境界の制限 + 低リスク行動の自動承認 + AIセキュリティ分類エージェントによるアラート処理」であり、開発効率と企業レベルのセキュリティ管理を両立させています。 (前回のあらすじ:OpenAI Codexに重大なアップグレード:Macのバックグラウンド操作、ブラウザ内蔵、画像生成など111個の新しいプラグインが利用可能に) (背景補足:OpenAIがエンジニア向けエージェントCodexを新発表!AIがコード作成、バグ修正、テスト実行を代行) 本レポートでは、OpenAIのセキュリティチームが本番環境でどのようにCodexを運用しているかを解説します。これは、サンドボックスの設定からアラートの分類まで、AIエージェントを大規模組織で採用する際にセキュリティ管理がカバーすべき領域を明らかにする、実践的な運用記録です。 OpenAIは今週、企業内デプロイに関するレポートを公開しました。公式発表によると、Codexデプロイの核心原則はただ一つ、「エージェントを明確な技術的境界内で効率的に動作させること」です。低リスクな行動でユーザーの作業を中断させず、高リスクな行動については必ず停止して人間の承認を求めるというものです。 この原則を実現するため、サンドボックスと承認ポリシーという2つの補完的なメカニズムが導入されました。 サンドボックスはCodexの実行空間を定義する役割を担い、書き込み可能なパス、外部ネットワークへの接続許可、保護対象のシステムディレクトリなどを制限します。サンドボックス外の動作のみが承認プロセスの対象となります。ユーザーは特定の操作を一度だけ承認することも、そのセッション全体で当該操作を自動的に許可することも可能です。 日常的なルーチン操作に対して、OpenAIは「Auto-review mode」を有効にしています。この機能は、Codexが実行しようとしているアクションと直近の操作コンテキストを「自動承認サブエージェント」に送信します。サブエージェントが低リスクと判断すればそのまま実行され、ユーザーのワークフローを中断しません。高リスクや予期せぬ結果を招く可能性があると判断された場合のみ、人間の確認へとエスカレーションされます。 ネットワーク管理のロジックも同様です。Codexはオープンな外部アクセスを許可されているわけではなく、OpenAIが管理する許可リストに基づき、Codexの正常なワークフローに必要なドメインのみにアクセス可能です。リスト外のドメインはデフォルトでブロックされ、未知のドメインに遭遇した場合は承認プロセスがトリガーされます。 ID認証も管理対象に含まれます。CLIおよびMCP OAuthの認証情報はOSのセキュアなキーチェーンに保存され、ログインにはChatGPT Enterpriseワークスペースの使用が強制されます。これにより、Codexの操作はChatGPT Enterpriseのコンプライアンスログプラットフォームに統合され、セキュリティチームが一元的に監査できるようになっています。 OpenAIはすべてのShellコマンドを同等のリスクとは見なさず、階層化されたルールを構築しています。エンジニアの日常開発で一般的な無害なコマンドはサンドボックス外での直接実行を許可し、承認を不要としています。一方で、特定の高リスクコマンドは直接ブロックするか、強制的に承認を求める仕組みです。 このルールは以下の3つの階層で適用されます。 - クラウド管理要件(管理者が強制適用し、ユーザーは上書き不可) - macOSの管理設定(Managed Preferences) - ローカル要件設定ファイル このアーキテクチャにより、OpenAIは全社的な統一基準を維持しつつ、チーム、ユーザーグループ、または環境のニーズに応じて異なる設定構成をテストすることが可能です。同じ設定がCodexデスクトップアプリ、CLI、IDE拡張機能など、すべてのローカルインターフェースに適用されます。 これは外部の研究結果と対照的です。研究によると、AIが生成したコードにセキュリティ脆弱性が含まれる割合は、人間が書いたコードよりも57%高いことが示されています。GitHub Copilotでも今年、CVSS 9.6の深刻な脆弱性(CVE-2025-53773)が発見され、プロンプトインジェクションを通じてリモートコード実行が可能であることが明らかになりました。 これらのデータは、企業がAIコードエージェントを採用する際、適切な階層化管理がなければ想定以上のリスクにさらされることを示しています。OpenAIのアプローチは、AIエージェント自体の判断に依存するのではなく、管理ロジックを設定層に組み込むことで、ルールの実行を操作習慣ではなく「技術的事実」にすることです。 OpenAIは公式発表の中で、セキュリティ管理をどれほど強化しても
データステータス✓ 全文抽出済み原文を読む(動區 BlockTempo)
🔍過去の類似イベント· キーワード + 銘柄照合6 件
💡 現在はキーワード + 銘柄照合(MVP)を使用しています · 今後 embedding セマンティック検索へアップグレード予定
原始情報
ID:4dc0db756e
ソース:動區 BlockTempo
公開:2026-05-10 07:10:27
カテゴリ:zh_news · エクスポートカテゴリ zh
銘柄:未指定
コミュニティ投票:+0 /0 · ⭐ 0 重要 · 💬 0 コメント
OpenAIが教えるCodexの安全な利用方法:サンドボックスの境界、自動承認、セキュリティ分類、完全なエンタープライズ導入フレームワーク | Feel.Trading