Daftar beritaChatGPT diserang oleh goblin, Codex terpaksa mengeluarkan larangan "dilarang menyebut Goblin selamanya"
動區 BlockTempo2026-04-29 01:53:32

ChatGPT diserang oleh goblin, Codex terpaksa mengeluarkan larangan "dilarang menyebut Goblin selamanya"

ORIGINALChatPGT 被哥布林入侵,Codex 被迫立下「永遠不准提 Goblin」禁令
Analisis Dampak AIGrok sedang menganalisis...
📄Artikel lengkap· Diambil secara otomatis oleh trafilaturaGemini 翻譯1780 kata
OpenAI secara eksplisit melarang model dalam system prompt Codex CLI untuk menyebutkan makhluk seperti goblin dan troll, hal ini bermula dari pergeseran kepribadian GPT-5.5 di bawah kerangka kerja agen OpenClaw yang menyebut bug pemrograman sebagai "goblins", sehingga memicu serangkaian diskusi meme. (Ringkasan sebelumnya: OpenAI meluncurkan agen insinyur baru Codex! AI dapat menulis fungsi, memperbaiki bug, menjalankan pengujian.. terbatas untuk 3 jenis pengguna) (Latar belakang: Peningkatan besar OpenAI Codex: kontrol desktop Mac, browser bawaan, pembuatan gambar, 111 plugin baru diluncurkan) Insinyur OpenAI menulis aturan kata demi kata dalam system prompt Codex CLI: "Jangan pernah menyebutkan goblin, peri, rakun, troll, ogre, merpati, atau hewan dan makhluk lainnya, kecuali jika benar-benar dan secara eksplisit relevan dengan pertanyaan pengguna." Aturan ini bukan lelucon, melainkan instruksi lingkungan produksi yang resmi diluncurkan. Aturan ini disematkan ke dalam repositori GitHub Codex CLI, yang ditujukan bagi semua pengembang yang menggunakan Codex untuk menghasilkan kode. Masalahnya adalah: mengapa OpenAI perlu memberi tahu model terbarunya agar tidak tiba-tiba membicarakan goblin saat menulis kode? Awal mulanya adalah peneliti @arb8020 yang menunjukkan di X bahwa dalam system prompt Codex CLI, larangan ini tidak hanya muncul sekali, tetapi berulang kali, dan postingan tersebut dengan cepat menyebar di komunitas pengembang. Banyak pengguna menanggapi, @TaraViswanathan membalas di X, "Saya baru saja bertanya-tanya mengapa claw saya tiba-tiba menjadi goblin yang memegang Codex 5.5," dan @LeoMozoloa juga menanggapi, "Itu benar-benar tidak bisa berhenti, terus menyebut bug pemrograman sebagai gremlins dan goblins, sangat lucu." !!!!! I was wondering why my claw suddenly became a goblin with codex 5.5 😭💀😂 pic.twitter.com/AACWtNcgQl — Tara Viswanathan (@TaraViswanathan) April 28, 2026 Peristiwa ini juga dengan cepat berkembang menjadi meme, muncul gambar peri pusat data yang dihasilkan AI, serta plugin pihak ketiga yang membuat Codex masuk ke "mode peri". Anggota tim OpenAI Codex, Nik Pash, mengonfirmasi dalam balasan di X bahwa penetapan larangan ini "memang ada alasannya". CEO Sam Altman juga ikut serta dalam meme tersebut, memposting tangkapan layar prompt ChatGPT di X yang bertuliskan: "Mulai latih GPT-6, seluruh klaster untukmu. Tambahkan goblin ekstra." — Sam Altman (@sama) April 28, 2026 Untuk memahami mengapa hal ini terjadi, kita perlu memahami cara kerja OpenClaw. OpenClaw adalah "kerangka kerja agen" yang memungkinkan model AI mengontrol desktop dan aplikasi komputer secara otomatis, menggantikan pengguna untuk melakukan tugas-tugas kompleks, seperti membalas email atau berbelanja di web. Mekanisme kerja OpenClaw adalah menumpuk banyak instruksi dalam prompt model: memori jangka panjang, kepribadian yang dipilih, dan deskripsi tugas saat ini, semuanya dimasukkan secara bersamaan. GPT-5.5 diluncurkan awal bulan ini dengan kemampuan pemrograman yang ditingkatkan, tetapi model ini mengalami efek samping yang tidak terduga saat memproses prompt komposit OpenClaw: ia mulai menyebut bug pemrograman sebagai "goblins" dan "gremlins". Ini bukan kegagalan acak. Prinsip kerja model AI adalah memprediksi kata berikutnya yang paling mungkin muncul setelah prompt yang diberikan, sifat probabilistik ini membuat mereka terkadang menghasilkan perilaku yang tidak terduga. Ketika kerangka kerja agen menumpuk banyak informasi tambahan ke dalam prompt, model tersebut pada dasarnya sedang memproses lingkungan input yang lebih kompleks dan penuh gangguan. OpenClaw memungkinkan pengguna untuk memilih "kepribadian" yang berbeda untuk asisten AI, dan pengaturan kepribadian ini semakin memengaruhi gaya respons model. Beberapa faktor yang digabungkan membuat kebiasaan bahasa model mulai bergeser ke arah yang tidak terduga. Cara OpenAI menangani hal ini cukup menarik: alih-alih memperbaiki pergeseran perilaku model di lingkungan agen dari tingkat arsitektur, mereka justru menulis "dilarang menyebut goblin" secara eksplisit di system prompt dan mengulanginya beberapa kali. Solusi ini mengungkap realitas: bahkan untuk model komersial tercanggih tahun 2026, kontrol perilaku dalam skenario tertentu masih bergantung pada penindasan kaku melalui aturan tertulis, bukan pemahaman model itu sendiri terhadap konteks. Ini bukan masalah unik OpenAI, melainkan tantangan bersama yang dihadapi seluruh industri AI agen saat ini: ketika model dipasangi kerangka kerja agen yang kompleks, kesulitan penyelar
Status data✓ Teks lengkap telah diambilBaca artikel asli (動區 BlockTempo)
🔍Peristiwa serupa dalam sejarah· Pencocokan kata kunci + aset3 berita
💡 Saat ini menggunakan pencocokan kata kunci + aset (MVP) · Akan ditingkatkan ke pencarian semantik embedding di masa mendatang
Informasi mentah
ID:f04cfce022
Sumber:動區 BlockTempo
Diterbitkan:2026-04-29 01:53:32
Kategori:zh_news · Kategori ekspor zh
Aset:Tidak ditentukan
Voting komunitas:+0 /0 · ⭐ 0 Penting · 💬 0 Komentar
ChatGPT diserang oleh goblin, Codex terpaksa mengeluarkan larangan "dilarang menyebut Goblin selamanya" | Feel.Trading