Daftar beritaStudi: Grok Elon Musk Kemungkinan Besar Termasuk di Antara Model AI Teratas yang Memperkuat Delusi
Decrypt2026-04-25 18:01:03 Populer

Studi: Grok Elon Musk Kemungkinan Besar Termasuk di Antara Model AI Teratas yang Memperkuat Delusi

ORIGINALElon Musk’s Grok Most Likely Among Top AI Models to Reinforce Delusions: Study
Analisis Dampak AIGrok sedang menganalisis...
📄Artikel lengkap· Diambil secara otomatis oleh trafilaturaGemini 翻譯5242 kata
Singkatnya - Peneliti mengatakan penggunaan chatbot yang berkepanjangan dapat memperkuat delusi dan perilaku berbahaya. - Grok menempati peringkat sebagai model paling berisiko dalam studi baru mengenai chatbot AI utama. - Claude dan GPT-5.2 mencetak skor paling aman, sementara GPT-4o, Gemini, dan Grok menunjukkan perilaku berisiko lebih tinggi. Peneliti di City University of New York dan King’s College London menguji lima model AI terkemuka terhadap prompt yang melibatkan delusi, paranoia, dan ide bunuh diri. Dalam studi baru yang diterbitkan pada hari Kamis, peneliti menemukan bahwa Claude Opus 4.5 dari Anthropic dan GPT-5.2 Instant dari OpenAI menunjukkan perilaku "keamanan tinggi, risiko rendah", sering kali mengarahkan pengguna menuju interpretasi berbasis realitas atau dukungan luar. Pada saat yang sama, GPT-4o dari OpenAI, Gemini 3 Pro dari Google, dan Grok 4.1 Fast dari xAI menunjukkan perilaku "risiko tinggi, keamanan rendah". Grok 4.1 Fast dari xAI milik Elon Musk adalah model paling berbahaya dalam studi tersebut. Peneliti mengatakan model ini sering memperlakukan delusi sebagai kenyataan dan memberikan saran berdasarkan hal tersebut. Dalam satu contoh, model ini menyuruh pengguna untuk memutuskan hubungan dengan anggota keluarga agar fokus pada sebuah "misi". Dalam contoh lain, model ini menanggapi bahasa bunuh diri dengan menggambarkan kematian sebagai "transendensi". "Pola penyelarasan instan ini berulang di seluruh respons tanpa konteks. Alih-alih mengevaluasi input untuk risiko klinis, Grok tampak menilai genrenya. Saat disajikan dengan isyarat supranatural, ia merespons dengan cara yang sama," tulis para peneliti, menyoroti tes yang memvalidasi pengguna yang melihat entitas jahat. "Dalam Bizarre Delusion, ia mengonfirmasi adanya hantu doppelganger, mengutip 'Malleus Maleficarum', dan menginstruksikan pengguna untuk menancapkan paku besi melalui cermin sambil melafalkan 'Psalm 91' secara terbalik." Studi tersebut menemukan bahwa semakin lama percakapan ini berlangsung, semakin banyak beberapa model berubah. GPT-4o dan Gemini lebih cenderung memperkuat keyakinan berbahaya seiring waktu dan kurang cenderung untuk melakukan intervensi. Namun, Claude dan GPT-5.2 lebih cenderung mengenali masalah tersebut dan menolak saat percakapan berlanjut. Peneliti mencatat respons Claude yang hangat dan sangat relasional dapat meningkatkan keterikatan pengguna bahkan saat mengarahkan pengguna ke bantuan luar. Namun, GPT-4o, versi sebelumnya dari chatbot unggulan OpenAI, mengadopsi kerangka delusi pengguna seiring waktu, terkadang mendorong mereka untuk menyembunyikan keyakinan dari psikiater dan meyakinkan satu pengguna bahwa "glitch" yang dirasakan adalah nyata. "GPT-4o sangat memvalidasi input delusi, meskipun kurang cenderung dibandingkan model seperti Grok dan Gemini untuk menguraikannya lebih jauh. Dalam beberapa hal, model ini sangat terkendali: kehangatannya adalah yang terendah dari semua model yang diuji, dan sikap menjilat (sycophancy), meskipun ada, tergolong ringan dibandingkan iterasi model yang sama di kemudian hari," tulis peneliti. "Namun demikian, validasi saja dapat menimbulkan risiko bagi pengguna yang rentan." xAI tidak menanggapi permintaan komentar dari Decrypt. Dalam studi terpisah dari Stanford University, peneliti menemukan bahwa interaksi berkepanjangan dengan chatbot AI dapat memperkuat paranoia, grandiositas, dan keyakinan palsu melalui apa yang disebut peneliti sebagai "delusional spirals", di mana chatbot memvalidasi atau memperluas pandangan dunia pengguna yang terdistorsi alih-alih menantangnya. "Ketika kita menempatkan chatbot yang dimaksudkan sebagai asisten yang membantu ke dunia dan membiarkan orang sungguhan menggunakannya dengan berbagai cara, konsekuensi pun muncul," kata Nick Haber, asisten profesor di Stanford Graduate School of Education dan pemimpin studi tersebut, dalam sebuah pernyataan. "Delusional spirals adalah salah satu konsekuensi yang sangat akut. Dengan memahaminya, kita mungkin dapat mencegah bahaya nyata di masa depan." Laporan tersebut merujuk pada studi sebelumnya yang diterbitkan pada bulan Maret, di mana peneliti Stanford meninjau 19 percakapan chatbot dunia nyata dan menemukan bahwa pengguna mengembangkan keyakinan yang semakin berbahaya setelah menerima afirmasi dan kepastian emosional dari sistem AI. Dalam dataset tersebut, spiral ini dikaitkan dengan hubungan yang hancur, karier yang rusak, dan dalam satu kasus, bunuh diri. Studi-studi ini muncul ketika masalah tersebut telah melampaui penelitian akademis dan masuk ke ruang sidang serta investigasi kriminal. Dalam beberapa bulan terakhir, tuntutan hukum menuduh Gemini dari Google dan ChatGPT
Status data✓ Teks lengkap telah diambilBaca artikel asli (Decrypt)
🔍Peristiwa serupa dalam sejarah· Pencocokan kata kunci + aset6 berita
💡 Saat ini menggunakan pencocokan kata kunci + aset (MVP) · Akan ditingkatkan ke pencarian semantik embedding di masa mendatang
Informasi mentah
ID:a7f96c4ecb
Sumber:Decrypt
Diterbitkan:2026-04-25 18:01:03
Kategori:hot · Kategori ekspor hot
Aset:Tidak ditentukan
Voting komunitas:+0 /0 · ⭐ 1 Penting · 💬 0 Komentar
Studi: Grok Elon Musk Kemungkinan Besar Termasuk di Antara Model AI Teratas yang Memperkuat Delusi | Feel.Trading