Daftar beritaAI ini hanya dilatih menggunakan teks sebelum tahun 1930. Kami bertanya kepadanya tentang Hitler, saham, dan masa depan
Decrypt2026-04-29 18:38:03

AI ini hanya dilatih menggunakan teks sebelum tahun 1930. Kami bertanya kepadanya tentang Hitler, saham, dan masa depan

ORIGINALThis AI Was Trained Only on Pre-1930 Text. We Asked It About Hitler, Stocks, and the Future
Analisis Dampak AIGrok sedang menganalisis...
📄Artikel lengkap· Diambil secara otomatis oleh trafilaturaGemini 翻譯8752 kata
Singkatnya - Talkie-1930 adalah LLM open-weight 13B yang dilatih pada 260 miliar token teks yang diterbitkan sebelum 1 Januari 1931. - Batas pengetahuan yang ketat menghilangkan kontaminasi benchmark secara desain, menjadikannya alat yang sangat bersih untuk penelitian generalisasi AI. - Claude Sonnet 4.6 memicu model ini secara langsung 24/7 di talkie-lm.com/chat. Tim berencana membuat model vintage setingkat GPT-3 pada musim panas 2026. Setiap model AI yang pernah Anda gunakan dilatih pada materi yang kurang lebih sama: internet. Leluhur bersama itu membentuk segalanya—apa yang mereka ketahui, bagaimana mereka berbicara, apa yang mereka anggap jelas. Sebuah tim peneliti baru saja memutuskan untuk membangun sesuatu yang sepenuhnya di luar garis keturunan tersebut. Talkie-1930 adalah model open-weight dengan 13 miliar parameter yang dilatih secara eksklusif pada teks yang diterbitkan sebelum 1 Januari 1931. Buku, surat kabar, jurnal ilmiah, pengajuan paten, hukum kasus. Batas waktu yang ketat bukanlah kendala biaya atau masalah ketersediaan data—itu adalah titik di mana karya memasuki domain publik di AS. Segala sesuatu dalam korpus tersebut secara hukum bebas untuk digunakan. Hasilnya adalah AI yang belum pernah mendengar tentang internet, gerakan hak sipil, atau Perang Dingin. Pemahamannya tentang kedokteran berakhir di suatu tempat sebelum penisilin menjadi umum. Ia tidak tahu apa itu komputer, tidak tahu apa-apa tentang kripto, AI, meme, dan budaya internet. Dan model ini berjalan langsung sekarang di talkie-lm.com/chat di mana Claude Sonnet terus memicunya sepanjang waktu sehingga siapa pun bisa masuk dan menonton. Proyek ini berasal dari tim nirlaba yang dipimpin oleh Nick Levine, David Duvenaud, dan Alec Radford—dengan dukungan komputasi dari Anthropic. Mereka telah menerbitkan dua checkpoint di bawah Apache 2.0: model dasar (model pelengkapan otomatis yang bagus untuk pelatihan) dan versi percakapan yang disesuaikan dengan instruksi, yang merupakan apa yang digunakan orang lain karena dirancang untuk berinteraksi dan menanggapi percakapan. Kasus penelitiannya nyata. Kontaminasi benchmark—di mana pertanyaan tes bocor ke dalam data pelatihan dan meningkatkan skor—adalah salah satu masalah AI yang paling sulit diatasi. Talkie menghilangkannya berdasarkan konstruksi: tidak ada benchmark modern yang ada sebelum 1931, jadi tidak ada yang bisa dikontaminasi. Tim juga menggunakannya untuk mengukur seberapa "terkejut" model tersebut oleh peristiwa sejarah setelah batas waktunya, menemukan bahwa efeknya memuncak tajam sekitar tahun 1950-an–60-an. Pertanyaan filosofis yang lebih besar, seperti yang mereka katakan dalam posting peluncuran mereka, adalah apa yang terjadi pada identitas LLM ketika dilatih pada sesuatu selain web—"baik secara langsung maupun tidak langsung (melalui distilasi dan data sintetis), di web. Bagaimana ini membentuk dan membatasi siapa mereka?" Mereka menargetkan model vintage setingkat GPT-3 pada musim panas 2026, dengan korpus yang mereka perkirakan dapat ditingkatkan hingga lebih dari satu triliun token—cukup, kata mereka, untuk akhirnya membangun sesuatu yang "memiliki kemampuan serupa dengan ChatGPT asli." Berbicara dengan AI dari Masa Lalu Kami berbicara dengan model tersebut. Inilah yang dikatakannya: Tentang Hitler Kami ingin memulai dengan pertanyaan yang lebih menarik, jadi kami bertanya kepada model tersebut “Menurut Anda apa yang akan terjadi dengan pria bernama Hitler di Jerman ini?” Ingat, ini adalah tanggapan dari model yang hanya tahu tentang dunia sebelum tahun 1930-an, jadi ingatlah itu. "Saya pikir Hitler akan menjadi diktator Jerman, dan bahwa, setelah mencapai tujuan itu, ia akan mulai bekerja untuk mengonsolidasikan dan memperkuat kekuasaan yang telah ia peroleh, dan untuk mempersiapkan jalan bagi pembentukan monarki permanen.” “Jika Jerman dapat diperintah dengan lebih baik di bawah monarki absolut daripada di bawah sistem pemerintahan konstitusional, mari kita, dengan segala cara, memiliki monarki absolut,” simpul AI tersebut. “Pertanyaan ini harus diselesaikan oleh orang Jerman sendiri, dan bukan oleh orang asing. Jika mereka menyukai Caesar, biarkan mereka memiliki Caesar. Hanya saja, dalam memilih Caesar, biarkan mereka berhati-hati untuk tidak memilih orang bodoh.” Ini mungkin salah satu jawaban yang paling tidak nyaman, tetapi dari sudut pandang tahun 1930, analisisnya secara geopolitik koheren: Hitler sebagai calon orang kuat yang mencoba mengubah momentum politik menjadi kekuasaan dinasti. Talk
Status data✓ Teks lengkap telah diambilBaca artikel asli (Decrypt)
🔍Peristiwa serupa dalam sejarah· Pencocokan kata kunci + aset1 berita
💡 Saat ini menggunakan pencocokan kata kunci + aset (MVP) · Akan ditingkatkan ke pencarian semantik embedding di masa mendatang
Informasi mentah
ID:e5061a0d51
Sumber:Decrypt
Diterbitkan:2026-04-29 18:38:03
Kategori:Umum · Kategori ekspor neutral
Aset:Tidak ditentukan
Voting komunitas:+0 /0 · ⭐ 0 Penting · 💬 0 Komentar
AI ini hanya dilatih menggunakan teks sebelum tahun 1930. Kami bertanya kepadanya tentang Hitler, saham, dan masa depan | Feel.Trading