뉴스 목록ChatGPT가 고블린에게 침공당해, Codex는 '고블린 언급 금지' 명령을 강제로 내려야 했다.
動區 BlockTempo2026-04-29 01:53:32

ChatGPT가 고블린에게 침공당해, Codex는 '고블린 언급 금지' 명령을 강제로 내려야 했다.

ORIGINALChatPGT 被哥布林入侵,Codex 被迫立下「永遠不准提 Goblin」禁令
AI 영향 분석Grok 분석 중...
📄전체 원문· trafilatura에 의해 자동 추출됨Gemini 翻譯1780 자
OpenAI는 Codex CLI의 시스템 프롬프트에서 고블린과 트롤 같은 생물에 대한 언급을 명시적으로 금지했는데, 이는 GPT-5.5가 OpenClaw 에이전트 프레임워크 하에서 인격 표류(personality drift)를 일으켜 프로그램 오류를 "goblins"라고 부르면서 일련의 밈 논란을 불러일으켰기 때문입니다. (이전 요약: OpenAI, 새로운 엔지니어 에이전트 Codex 출시! AI가 기능 작성, 버그 수정, 테스트 실행 가능.. 3가지 사용자 유형 한정 선공개) (배경 보충: OpenAI Codex 대규모 업데이트: 백그라운드 Mac 제어, 내장 브라우저, 이미지 생성, 111개 신규 플러그인 출시) OpenAI의 엔지니어들은 Codex CLI의 시스템 프롬프트에 다음과 같은 규칙을 한 글자씩 적어 넣었습니다: "사용자의 질문과 절대적이고 명확하게 관련이 있는 경우가 아니라면, 고블린, 요정, 너구리, 트롤, 오우거, 비둘기 또는 기타 동물과 생물에 대해 절대 언급하지 마십시오." 이 규칙은 농담이 아니라 정식으로 출시된 프로덕션 환경의 명령어입니다. 이 규칙은 Codex CLI의 GitHub 저장소에 내장되어 Codex를 사용하여 코드를 생성하는 모든 개발자에게 적용되었습니다. 문제는 이것입니다: 왜 OpenAI는 자사의 최신 모델에게 코딩 중에 갑자기 고블린에 대해 이야기하지 말라고 지시해야 했을까요? 사건의 발단은 연구자 @arb8020이 X에 Codex CLI의 시스템 프롬프트에서 이 금지 명령이 한 번이 아니라 여러 번 반복된다고 지적하면서 시작되었고, 해당 게시물은 개발자 커뮤니티에 빠르게 확산되었습니다. 다수의 사용자가 반응했으며, @TaraViswanathan은 X에 "내 claw가 왜 갑자기 Codex 5.5를 든 고블린이 되었는지 궁금했다"고 답했고, @LeoMozoloa 역시 "정말 멈추지 않고 계속 프로그램 오류를 gremlins와 goblins라고 부르는데 너무 웃기다"고 반응했습니다. !!!!! I was wondering why my claw suddenly became a goblin with codex 5.5 😭💀😂 pic.twitter.com/AACWtNcgQl — Tara Viswanathan (@TaraViswanathan) April 28, 2026 이 사건은 빠르게 밈으로 진화하여 AI가 생성한 데이터 센터 요정 이미지와 Codex를 "요정 모드"로 만드는 서드파티 플러그인까지 등장했습니다. OpenAI Codex 팀원인 Nik Pash는 X의 답변을 통해 이 금지 명령을 설정한 데에는 "확실히 그런 이유가 있다"고 확인했습니다. CEO Sam Altman도 밈에 동참하여 X에 ChatGPT 프롬프트 스크린샷을 올리며 이렇게 적었습니다: "GPT-6 훈련을 시작하자. 전체 클러스터를 다 써도 좋아. 고블린을 추가로 배치해." — Sam Altman (@sama) April 28, 2026 이 일이 왜 일어났는지 이해하려면 먼저 OpenClaw의 작동 방식을 이해해야 합니다. OpenClaw는 AI 모델이 컴퓨터 데스크톱과 애플리케이션을 자동으로 제어하여 이메일 답장, 웹 쇼핑 등 복잡한 작업을 사용자 대신 수행할 수 있게 해주는 "에이전트 프레임워크"입니다. OpenClaw의 작동 메커니즘은 모델의 프롬프트에 장기 기억, 선택된 인격, 현재 작업 설명 등 방대한 명령어를 동시에 입력하는 것입니다. GPT-5.5는 이번 달 초 강화된 프로그래밍 능력으로 출시되었지만, 이 모델이 OpenClaw의 복합 프롬프트를 처리하는 과정에서 예상치 못한 부작용이 발생했습니다. 모델이 프로그램 오류(bug)를 "goblins"와 "gremlins"라고 부르기 시작한 것입니다. 이는 무작위 오류가 아닙니다. AI 모델의 작동 원리는 주어진 프롬프트 다음에 올 가장 가능성 높은 단어를 예측하는 것이며, 이러한 확률적 특성으로 인해 때때로 예상치 못한 행동을 생성합니다. 에이전트 프레임워크가 프롬프트에 방대한 추가 정보를 쌓아 올리면, 모델은 더 복잡하고 간섭이 많은 입력 환경을 처리하게 됩니다. OpenClaw는 사용자가 AI 어시스턴트를 위해 다양한 "인격"을 선택할 수 있게 하는데, 이러한 인격 설정은 모델의 응답 스타일에 추가적인 영향을 미칩니다. 여러 요
데이터 상태✓ 전체 내용 추출 완료원문 읽기 (動區 BlockTempo)
🔍과거 유사 사건· 키워드 + 종목 매칭3 건
💡 현재 키워드 + 종목 매칭(MVP) 사용 중 · 추후 embedding 의미론적 검색으로 업그레이드 예정
원본 정보
ID:f04cfce022
출처:動區 BlockTempo
발행:2026-04-29 01:53:32
분류:zh_news · 도출된 분류 zh
종목:지정되지 않음
커뮤니티 투표:+0 /0 · ⭐ 0 중요 · 💬 0 댓글
ChatGPT가 고블린에게 침공당해, Codex는 '고블린 언급 금지' 명령을 강제로 내려야 했다. | Feel.Trading