Daftar beritaDeepSeek V4 Telah Hadir—Versi Pro-nya 98% Lebih Murah Dibandingkan GPT 5.5 Pro
Decrypt2026-04-24 16:34:58

DeepSeek V4 Telah Hadir—Versi Pro-nya 98% Lebih Murah Dibandingkan GPT 5.5 Pro

ORIGINALDeepSeek V4 Is Here—Its Pro Version Costs 98% Less Than GPT 5.5 Pro
Analisis Dampak AIGrok sedang menganalisis...
📄Artikel lengkap· Diambil secara otomatis oleh trafilaturaGemini 翻譯12040 kata
Ringkasan - DeepSeek merilis model V4-Pro baru dengan 1,6 triliun parameter. - Biayanya $1,74/$3,48 per juta token input/output, kira-kira 1/20 dari harga Claude Opus 4.7 dan 98% lebih murah daripada GPT 5.5 Pro. - DeepSeek melatih V4 sebagian menggunakan chip Huawei Ascend, menghindari pembatasan ekspor AS, dan menyatakan bahwa setelah 950 supernode baru beroperasi di akhir 2026, harga model Pro yang sudah rendah akan turun lebih jauh. DeepSeek kembali, dan muncul beberapa jam setelah OpenAI merilis GPT-5.5. Kebetulan? Mungkin. Namun, jika Anda adalah laboratorium AI asal Tiongkok yang selama tiga tahun terakhir coba dihambat oleh pemerintah AS dengan larangan ekspor chip, ketepatan waktu Anda menjadi sangat tajam. Laboratorium yang berbasis di Hangzhou ini merilis versi pratinjau DeepSeek-V4-Pro dan DeepSeek-V4-Flash hari ini, keduanya berbobot terbuka (open-weight), dan keduanya memiliki jendela konteks satu juta token. Itu berarti Anda pada dasarnya dapat bekerja dengan konteks seukuran trilogi Lord of the Rings sebelum model tersebut kolaps. Keduanya juga dihargai jauh di bawah apa pun yang sebanding di Barat, dan keduanya gratis bagi mereka yang mampu menjalankannya secara lokal. Gangguan besar terakhir DeepSeek—R1 pada Januari 2025—menghapus $600 miliar dari kapitalisasi pasar Nvidia dalam satu hari karena investor mempertanyakan apakah perusahaan Amerika benar-benar membutuhkan investasi sebesar itu untuk menghasilkan hasil yang dicapai oleh laboratorium kecil asal Tiongkok dengan biaya yang jauh lebih murah. V4 adalah jenis langkah yang berbeda: lebih tenang, lebih teknis, dan lebih fokus pada efisiensi bagi siapa pun yang benar-benar membangun dengan AI. Dua model, tugas yang sangat berbeda Dari dua model baru tersebut, V4-Pro milik DeepSeek adalah yang besar, dengan total 1,6 triliun parameter. Sebagai gambaran, parameter adalah "pengaturan" internal atau "sel otak" yang digunakan model untuk menyimpan pengetahuan dan mengenali pola—semakin banyak parameter yang dimiliki model, semakin kompleks informasi yang secara teoretis dapat ditampungnya. Hal ini menjadikannya model sumber terbuka (open-source) terbesar di pasar LLM hingga saat ini. Ukurannya mungkin terdengar konyol sampai Anda mengetahui bahwa model ini hanya mengaktifkan 49 miliar parameter per proses inferensi. Ini adalah trik Mixture-of-Experts yang telah disempurnakan DeepSeek sejak V3: Model penuh tetap ada di sana, tetapi hanya bagian yang relevan yang aktif untuk setiap permintaan tertentu. Lebih banyak pengetahuan, tagihan komputasi yang sama. “DeepSeek-V4-Pro-Max, mode upaya penalaran maksimum dari DeepSeek-V4-Pro, secara signifikan memajukan kemampuan pengetahuan model sumber terbuka, dengan tegas memantapkan dirinya sebagai model sumber terbuka terbaik yang tersedia saat ini,” tulis Deepseek dalam kartu resmi model tersebut di Huggingface. “Model ini mencapai kinerja tingkat atas dalam tolok ukur pengodean dan secara signifikan menjembatani kesenjangan dengan model sumber tertutup (closed-source) terkemuka dalam tugas penalaran dan agen.” V4-Flash adalah model yang praktis: total 284 miliar parameter, 13 miliar aktif. Model ini dirancang agar lebih cepat, lebih murah, dan menurut tolok ukur DeepSeek sendiri, “mencapai kinerja penalaran yang sebanding dengan versi Pro jika diberikan anggaran berpikir yang lebih besar.” Keduanya mendukung satu juta token konteks. Itu kira-kira 750.000 kata—kurang lebih seluruh trilogi “Lord of the Rings” ditambah sedikit lagi. Dan itu sebagai fitur standar, bukan tingkat premium. Rahasia (yang tidak begitu) rahasia Deepseek: Membuat perhatian (attention) tidak buruk dalam skala besar Berikut adalah bagian teknis bagi para kutu buku atau mereka yang tertarik dengan keajaiban yang menggerakkan model ini. Deepseek tidak menyembunyikan rahasianya, dan semuanya tersedia secara gratis—makalah lengkapnya tersedia di Github. Perhatian AI standar—mekanisme yang memungkinkan model memahami hubungan antar kata—memiliki masalah penskalaan yang brutal. Setiap kali Anda menggandakan panjang konteks, biaya komputasi kira-kira meningkat empat kali lipat. Jadi, menjalankan model pada satu juta token tidak hanya dua kali lebih mahal daripada 500.000 token. Biayanya empat kali lebih mahal. Inilah sebabnya mengapa konteks panjang secara historis menjadi fitur centang yang ditambahkan laboratorium dan kemudian secara diam-diam dibatasi di balik batas kecepatan (rate limits). DeepSeek
Status data✓ Teks lengkap telah diambilBaca artikel asli (Decrypt)
🔍Peristiwa serupa dalam sejarah· Pencocokan kata kunci + aset5 berita
💡 Saat ini menggunakan pencocokan kata kunci + aset (MVP) · Akan ditingkatkan ke pencarian semantik embedding di masa mendatang
Informasi mentah
ID:84ea193a04
Sumber:Decrypt
Diterbitkan:2026-04-24 16:34:58
Kategori:Umum · Kategori ekspor neutral
Aset:Tidak ditentukan
Voting komunitas:+0 /0 · ⭐ 0 Penting · 💬 0 Komentar