65 Baris Teks Mengubah Coding AI? Identitas File yang Mendapat 400 Bintang dalam Sehari
(tildeweb.nl)Andrej Karpathy menyoroti berbagai masalah coding dengan LLM, dan sebuah file Markdown hanya 65 baris (CLAUDE.md) yang mencoba menyelesaikannya kini meledak popularitasnya di GitHub. Di kalangan pengguna Claude Code, file ini memicu sensasi bahwa “cukup tambahkan file ini saja, AI jadi jauh lebih pintar”.
Popularitas file yang meledak
- File
CLAUDE.mddi repositori GitHub (forrestchang/andrej-karpathy-skills) - Dalam sehari mendapat tambahan +400 bintang → total menembus hampir 4.000
- Juga telah di-port ke ekstensi VS Code / Cursor sehingga mudah diterapkan
Isi file: 4 prinsip inti (terinspirasi dari kritik Karpathy terhadap coding LLM)
- Think Before Coding (berpikir sebelum menulis kode): nyatakan asumsi, bertanya jika tidak yakin, berhenti saat bingung
- Simplicity First (utamakan kesederhanaan): dilarang menambahkan fitur, abstraksi, atau penanganan error yang tidak diminta
- Surgical Changes (perubahan sepresisi operasi): ubah hanya bagian yang diminta dan jangan menyentuh sisanya
- Goal-Driven Execution (eksekusi berbasis tujuan): ubah permintaan samar seperti “tambah fitur” menjadi tujuan konkret seperti “loloskan pengujian”
→ Pengalaman para pengguna menyebutkan bahwa ketika prinsip-prinsip ini disuntikkan sebagai prompt, Claude jadi lebih sedikit menunjukkan kreativitas berlebihan, asumsi yang melenceng, dan refactoring yang tidak perlu, sehingga menulis kode yang lebih stabil dan lebih mudah diprediksi.
Tindakan Michiel Beijen (pemilik blog sumber)
- Menilai file ini bagus meski tidak memakai Claude Code
- Membuat sendiri versi ekstensi Cursor + VS Code dan merilisnya
- Setelah dicoba langsung, reaksinya: “sepertinya ada efeknya, tapi juga mungkin tidak…” (sulit yakin karena sifatnya tidak deterministik)
- Meski begitu, ia mengakui banyak orang memang merasakan perbedaannya
Hal yang membuat orang terkejut
- Perusahaan LLM raksasa telah melatih model selama bertahun-tahun dengan investasi triliunan won
- Namun hanya 65 baris teks ternyata bisa meningkatkan kualitas secara nyata
- Ini ditafsirkan sebagai contoh ekstrem bahwa “prompt bisa mengungguli model itu sendiri”
- Pedoman sederhana ini dinilai cukup efektif menangani masalah kronis LLM yang disorot Karpathy (terlalu banyak asumsi, mengabaikan kebingungan, tidak menyajikan trade-off, dll.)
Kesimpulan
- Belum bisa dipastikan 100% apakah efeknya benar-benar nyata, tetapi banyak developer merasa “memang jelas berbeda”
- Ini menjadi contoh simbolis tentang seberapa kuat prompt hacking / context engineering di era LLM
13 komentar
Gimana ya bilangnya.. ini cuma cara kerja developer dari dulu sih
Saya tidak bisa yakin 100% apakah ini benar-benar efektif, tetapi banyak developer merasa, “jelas berbeda”
wkwkwk
Percayaaa...!
Setelah benar-benar dicoba, rasanya seperti “mungkin ada efeknya, tapi mungkin juga tidak…” (karena tidak deterministik, sulit untuk yakin)
wwwwwwwwww
wkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwkwk
Itu vibe-nya..! wkwk
Keyakinan menang!
Berputar-putar, ujung-ujungnya kembali ke prompt engineering
Rekayasa prompt.
Prompt juga butuh kemampuan menulis. Ini temuan yang bisa membantu developer yang kemampuan menulisnya kurang (termasuk vibe coder). Sebagai catatan, aku dapat peringkat 1 untuk bahasa Korea di CSAT.
'Sebagai catatan, aku mendapat nilai tingkat 1 untuk bahasa Korea di CSAT'—komentar yang bahkan sampai bagian itu pun sempurna
Jadi pada akhirnya prompt adalah jawabannya, dan kemahakuasaan AGENTS kembali dipertanyakan
Mantap, mantap