Daftar beritaGoogle meluncurkan TPU generasi kedelapan: dua chip AI untuk pelatihan dan inferensi, menantang titik lemah Nvidia
動區 BlockTempo2026-04-23 01:16:08

Google meluncurkan TPU generasi kedelapan: dua chip AI untuk pelatihan dan inferensi, menantang titik lemah Nvidia

ORIGINALGoogle 推第八代 TPU:兩款 AI 晶片分攻訓練與推論,挑戰 Nvidia 痛點
Analisis Dampak AIGrok sedang menganalisis...
📄Artikel lengkap· Diambil secara otomatis oleh trafilaturaGemini 翻譯1896 kata
Google mengumumkan TPU generasi kedelapan di Cloud Next 2026, untuk pertama kalinya memisahkan tugas pelatihan dan inferensi ke dalam dua chip khusus: TPU 8t dan TPU 8i, dengan klaim peningkatan performa per dolar hingga 80%. (Pratinjau: Anthropic mengumumkan kerja sama dengan Broadcom, Google memperluas adopsi chip TPU, pendapatan tahunan melonjak menjadi 30 miliar USD) (Latar belakang: Anak emas Nvidia pun tidak bisa! Pemegang saham terbesar Core Scientific menolak akuisisi CoreWeave: Valuasi 9 miliar USD terlalu rendah) Saat TPU generasi pertama Google (Tensor Processing Unit, sebuah chip yang dikembangkan sendiri khusus untuk komputasi AI) diluncurkan pada tahun 2016, pasar memprediksi bahwa chip ini akan menjadi penakluk Nvidia. Hasilnya: dalam sepuluh tahun terakhir, nilai pasar Nvidia telah tumbuh puluhan kali lipat dari ratusan miliar dolar, sementara sebagian besar prediksi tersebut tidak terwujud. Kali ini, Google meluncurkan TPU generasi kedelapan di konferensi Cloud Next 2026 dan membuat keputusan yang belum pernah dilakukan sebelumnya: memisahkan pelatihan dan inferensi, masing-masing ditangani oleh satu chip. Apa yang disebut "pelatihan" dan "inferensi" adalah dua tahap yang sangat berbeda dalam komputasi AI. - Pelatihan adalah proses di mana model belajar dari data dalam jumlah besar, yang membutuhkan kepadatan daya komputasi yang sangat tinggi. - Inferensi adalah proses di mana model merespons setiap kueri pengguna setelah selesai belajar, yang membutuhkan latensi rendah dan biaya rendah. Dulu Google menggunakan TPU yang sama untuk menangani kedua kebutuhan ini, namun mulai generasi kedelapan, keduanya resmi dipisahkan. TPU 8t adalah chip khusus pelatihan: dilengkapi dengan kemampuan komputasi floating-point 4-bit sebesar 12,6 petaFLOPS (petaFLOPS, yaitu seribu triliun perhitungan floating-point per detik, semakin besar angkanya semakin cepat komputasinya), memori bandwidth tinggi 216 GB, dan bandwidth memori 6,5 TB/s. Google mengklaim chip ini 3 kali lebih cepat dalam kecepatan pelatihan dibandingkan generasi sebelumnya, dan dapat memungkinkan lebih dari 1 juta TPU berkolaborasi dalam satu klaster. TPU 8i adalah chip khusus inferensi: dilengkapi dengan kemampuan komputasi FP4 sebesar 10,1 petaFLOPS, memori bandwidth tinggi 288 GB, dan memori on-chip yang lebih besar sebesar 384 MB (digunakan untuk mengurangi latensi pemindahan data). Google menyatakan bahwa performa inferensi per dolarnya meningkat 80% dibandingkan Ironwood TPU generasi sebelumnya, terutama menonjol dalam target latensi rendah. Kedua chip tersebut dijadwalkan akan dibuka secara resmi untuk umum dalam tahun 2026. Langkah Google memisahkan chip kali ini secara langsung membidik salah satu kelemahan Nvidia: generalitas. GPU Nvidia adalah lini produk tunggal yang melayani pelatihan dan inferensi secara bersamaan. Spesifikasi chip Vera Rubin yang akan segera diluncurkan oleh Nvidia adalah komputasi FP4 35 petaFLOPS, memori HBM4 288 GB, dan bandwidth memori 22 TB/s — angka daya komputasi mentah masih memimpin dibandingkan 12,6 petaFLOPS milik Google TPU 8t. Namun, membandingkan petaFLOPS secara murni akan menutupi dimensi lain: struktur biaya. Persaingan di pasar inferensi pada dasarnya adalah "biaya setiap jawaban model". Google menetapkan target desain TPU 8i untuk menekan biaya unit inferensi, dan inilah angka yang paling diperhatikan oleh perusahaan model besar seperti Anthropic dan OpenAI. Perlu dicatat bahwa Anthropic telah mengumumkan akan memperluas pelatihan dan layanan Claude miliknya ke kapasitas TPU "tingkat multi-gigawatt", menjadikannya pelanggan TPU terbesar yang diungkapkan secara publik saat ini, dan OpenAI juga mulai menggunakan kapasitas TPU Google. Namun, Google sendiri tidak menyangkal Nvidia. Mereka secara bersamaan mengumumkan bahwa cloud miliknya akan menyediakan chip Nvidia Vera Rubin pada akhir tahun 2026. Lebih jauh lagi, kedua perusahaan sedang bekerja sama untuk memperkuat protokol jaringan "Falcon", yang merupakan teknologi jaringan pusat data open-source dari Google pada tahun 2023, dengan tujuan agar sistem Nvidia dapat berjalan lebih efisien di Google Cloud. Tantangan Google TPU tidak pernah hanya soal apakah spesifikasinya bisa mengalahkan Nvidia. Masalah sebenarnya adalah ekosistem. Nvidia memiliki CUDA, sebuah kerangka kerja komputasi AI yang sangat diandalkan oleh pengembang selama dua puluh tahun (dapat dipahami sebagai lingkungan bahasa pemrograman yang digunakan oleh semua ins
Status data✓ Teks lengkap telah diambilBaca artikel asli (動區 BlockTempo)
🔍Peristiwa serupa dalam sejarah· Pencocokan kata kunci + aset6 berita
💡 Saat ini menggunakan pencocokan kata kunci + aset (MVP) · Akan ditingkatkan ke pencarian semantik embedding di masa mendatang
Informasi mentah
ID:f956b2da18
Sumber:動區 BlockTempo
Diterbitkan:2026-04-23 01:16:08
Kategori:zh_news · Kategori ekspor zh
Aset:Tidak ditentukan
Voting komunitas:+0 /0 · ⭐ 0 Penting · 💬 0 Komentar