Daftar beritaStaf Goldman Sachs Hong Kong dilarang menggunakan Claude, Anthropic mengakui: tidak pernah mendukung wilayah HK, kontrol geopolitik AI meluas
動區 BlockTempo2026-04-29 03:49:22

Staf Goldman Sachs Hong Kong dilarang menggunakan Claude, Anthropic mengakui: tidak pernah mendukung wilayah HK, kontrol geopolitik AI meluas

ORIGINAL高盛香港員工被停用 Claude,Anthropic 坦承:從未支援HK區,AI 地緣管制延燒
Analisis Dampak AIGrok sedang menganalisis...
📄Artikel lengkap· Diambil secara otomatis oleh trafilaturaGemini 翻譯1777 kata
Eksklusif dari Financial Times dan dikonfirmasi oleh Bloomberg pada 29 April: Karyawan Goldman Sachs cabang Hong Kong kehilangan akses ke Claude sejak beberapa minggu lalu. Hal ini dipicu oleh interpretasi kontrak yang ketat setelah Goldman Sachs berkonsultasi dengan Anthropic, yang mengonfirmasi bahwa karyawan di wilayah Hong Kong tidak diperbolehkan menggunakan produk Anthropic apa pun. Juru bicara Anthropic juga untuk pertama kalinya menyatakan secara terbuka bahwa model Claude "tidak pernah didukung secara resmi di Hong Kong". Ini bukan sekadar penyesuaian kebijakan IT di satu bank—ini mengungkap batasan layanan penyedia AI di tengah ketegangan geopolitik AS-Tiongkok, serta penyusutan alat kerja (toolchain) lembaga keuangan asing (termasuk divisi aset kripto) di Hong Kong. (Ringkasan sebelumnya: Anthropic Mythos terlalu kuat hingga memicu rapat darurat: Bessent dan Powell mengumpulkan Citi, Goldman Sachs, Bank of America, serta JPMorgan dan Morgan Stanley, lima bank besar fokus pada risiko keuangan) (Latar belakang: Anthropic mewajibkan verifikasi KYC nama asli! Beberapa fitur Claude akan memerlukan unggahan dokumen identitas, tekanan kepatuhan meningkat) Karyawan Goldman Sachs cabang Hong Kong, tanpa pemberitahuan resmi apa pun, diam-diam kehilangan satu alat—Claude dari Anthropic. Laporan eksklusif Financial Times pada 28 April, yang dikonfirmasi oleh Bloomberg keesokan harinya: Di platform AI internal Goldman Sachs, Claude telah ditutup sepenuhnya bagi karyawan Hong Kong, dengan cakupan pemblokiran yang mencakup semua skenario penggunaan seperti penulisan kode dan analisis dokumen. Model utama lainnya—Google Gemini, OpenAI ChatGPT—masih berjalan normal di platform tersebut, hanya Claude yang absen. Penyebab kejadian ini bukanlah kegagalan teknis, melainkan keputusan kepatuhan perusahaan. Setelah berkonsultasi dengan Anthropic, Goldman Sachs mengambil sikap interpretasi kontrak yang ketat, dengan kesimpulan: Karyawan Hong Kong tidak termasuk dalam cakupan layanan Anthropic, sehingga tidak boleh menggunakan produk Anthropic apa pun. Tanggapan resmi Anthropic singkat dan jelas—juru bicara mengatakan kepada FT bahwa model Claude "tidak pernah didukung secara resmi di Hong Kong (never officially supported in Hong Kong)", dan menolak berkomentar lebih lanjut. Pernyataan ini memiliki dasar substantif: Daftar wilayah yang didukung secara resmi oleh Anthropic tidak pernah mencakup Hong Kong, dan Claude juga telah lama diblokir di tingkat IP di Hong Kong. Pembatasan ini bukan diminta oleh peraturan Hong Kong, melainkan pilihan kebijakan proaktif dari Anthropic. Lapisan pertama adalah lingkungan hukum. Setelah penerapan National Security Law pada tahun 2020, kerangka hukum Hong Kong menciptakan ketidakpastian bagi kedaulatan data dan kewajiban kepatuhan perusahaan teknologi AS, sehingga Anthropic memilih untuk bersikap konservatif. Lapisan kedua adalah hubungan dengan pemerintah AS. Anthropic memegang banyak kontrak pemerintah federal AS, yang mencakup departemen pertahanan dan intelijen, sehingga kebijakan kontrol geopolitiknya harus selaras dengan kerangka kontrol ekspor AS. Anthropic sendiri juga merupakan pendukung publik atas kontrol ekspor chip canggih AS. Lapisan ketiga adalah kekhawatiran keamanan model. Pada awal 2026, Anthropic secara terbuka menuduh laboratorium AI Tiongkok, termasuk DeepSeek, melakukan "model distillation" melalui lebih dari 16 juta interaksi untuk mengekstraksi kemampuan Claude secara sistematis. Peristiwa ini semakin memperkuat posisi Anthropic dalam membatasi akses di wilayah terkait Tiongkok. Perlu dicatat bahwa Anthropic memperbarui ketentuan layanannya pada tahun 2026 dengan menambahkan batasan kepemilikan global: Perusahaan mana pun yang kepemilikannya secara langsung atau tidak langsung lebih dari 50% dimiliki oleh entitas Tiongkok, di mana pun perusahaan tersebut didirikan atau beroperasi, dilarang menggunakan Claude. Keunikan peristiwa ini adalah: Bukan Anthropic yang secara aktif menghentikan layanan untuk Goldman Sachs, melainkan Goldman Sachs yang secara proaktif berkonsultasi dan memperketat aturan. Ini menunjukkan bahwa lembaga keuangan asing telah mulai memasukkan kepatuhan geopolitik alat AI ke dalam proses manajemen risiko standar. Goldman Sachs cabang Hong Kong sendiri merupakan mitra kliring, lawan transaksi OTC, dan konsultan kepatuhan bagi banyak lembaga kripto utama. Jika kontrol alat semacam ini menjadi kebiasaan di departemen bank asing di Hong Kong, yang terkena dampak bukan hanya insinyur di departemen teknologi, tetapi juga lini bisnis yang sangat bergantung pada bantuan AI seperti perdagangan aset kripto, desain produk terstruktur, dan uji tuntas pelanggan (KYC). Saat ini belum jelas apakah bank asing lainnya mengambil langkah serupa. Namun, menurut laporan SCMP, seiring dengan diperketatnya verifikasi identitas oleh Anthropic
Status data✓ Teks lengkap telah diambilBaca artikel asli (動區 BlockTempo)
🔍Peristiwa serupa dalam sejarah· Pencocokan kata kunci + aset6 berita
💡 Saat ini menggunakan pencocokan kata kunci + aset (MVP) · Akan ditingkatkan ke pencarian semantik embedding di masa mendatang
Informasi mentah
ID:0f52798931
Sumber:動區 BlockTempo
Diterbitkan:2026-04-29 03:49:22
Kategori:zh_news · Kategori ekspor zh
Aset:Tidak ditentukan
Voting komunitas:+0 /0 · ⭐ 0 Penting · 💬 0 Komentar