- Eksperimen membangun server web tanpa logika aplikasi sama sekali, sehingga LLM menangani semua permintaan
- Server hanya menerima permintaan HTTP lalu bertanya ke LLM “apa yang harus dilakukan?”, dan LLM mengerjakan sisanya
- Server menjalankan fungsi CRUD hanya dengan tiga alat: database, webResponse, dan updateMemory
- LLM secara mandiri melakukan perancangan skema SQL, pembuatan HTML·JSON, hingga penerapan umpan balik, lalu mewujudkan aplikasi manajemen kontak dasar
- Kecepatan respons 30~60 detik, biaya 100~1000 kali lebih tinggi dibanding aplikasi web tradisional, serta ada masalah konsistensi UI dan memori
- Meski begitu, eksperimen ini menunjukkan kemungkinan membuat aplikasi CRUD lengkap yang berjalan tanpa kode, sehingga mengisyaratkan bahwa kode itu sendiri bisa jadi hanyalah konsep transisional
Latar belakang
- Berawal dari gagasan khayalan (Shower Thought) bahwa “suatu hari nanti kita tidak perlu lagi menulis kode”
- Di masa depan, LLM mungkin dapat memproses input secara real-time dan menghasilkan video 120fps, sehingga komputasi murni berbasis niat tanpa aplikasi maupun kode menjadi mungkin
- Dalam kenyataannya ini masih berada di ranah fiksi ilmiah, tetapi sebagai eksperimen akhir pekan, penulis memutuskan untuk menguji langsung sejauh mana hal itu mungkin dengan teknologi saat ini
- Hipotesis eksperimen ini sejak awal memang memperkirakan kegagalan
- Saat sebagian besar AI berfokus pada arah menghasilkan kode (misalnya Claude Code, Cursor, Copilot, dll.),
proyek ini dibuat untuk menguji sudut pandang lain: “bagaimana jika pembuatan kode dihilangkan sepenuhnya?”
- Hasilnya, dibuatlah server HTTP tanpa route, controller, maupun business logic sama sekali, yang bekerja dengan menanyakan ke LLM untuk setiap permintaan: “apa yang harus dilakukan?”
- Tujuan eksperimen ini adalah membuktikan “seberapa jauh sebenarnya masa depan itu masih berada”
Ringkasan proyek
- nokode adalah eksperimen yang menguji struktur di mana semua permintaan ditangani oleh LLM, dengan membangun server web tanpa logika aplikasi
- Server hanya menerima permintaan HTTP lalu bertanya ke LLM “apa yang harus dilakukan?”, dan LLM mengerjakan sisanya
- Tujuannya adalah memverifikasi apakah LLM bisa menjalankan logika aplikasi secara langsung tanpa menghasilkan kode lebih dulu
- Objek eksperimennya adalah aplikasi manajemen kontak (contact manager), yang mencakup fungsi CRUD dasar (input, lihat, ubah, hapus)
Konfigurasi sistem
- Backend hanya terdiri dari 3 alat
- database: menjalankan SQL di SQLite, dan LLM merancang sendiri skemanya
- webResponse: menghasilkan respons dalam format yang sesuai seperti HTML, JavaScript, JSON, dan sebagainya
- updateMemory: menyimpan umpan balik pengguna dalam Markdown untuk dirujuk pada permintaan berikutnya
- Sebagai contoh, permintaan ke
/contacts menghasilkan halaman HTML, sedangkan permintaan ke /api/contacts menghasilkan respons JSON
- Setiap halaman menyertakan widget umpan balik, sehingga permintaan seperti “buat tombolnya lebih besar” atau “ganti ke tema gelap” bisa langsung diterapkan
Hasil eksperimen
- Secara fungsional berhasil berjalan
- Pengiriman formulir, penyimpanan data, tampilan UI, dan respons API semuanya berjalan normal
- Bahkan tanpa contoh, LLM dapat menghasilkan skema database yang sesuai, SQL yang aman, API bergaya REST, layout responsif, validasi formulir, dan penanganan error
- Masalah performa
- Membutuhkan 30~60 detik per permintaan, sehingga 300~6000 kali lebih lambat dibanding aplikasi web biasa (10~100ms)
- Biaya $0.01~0.05 per permintaan, sehingga 100~1000 kali lebih mahal
- Ada ketidakkonsistenan warna dan layout UI, tidak mampu mengingat status sebelumnya, dan kesalahan langsung terjadi jika SQL yang dihasilkan salah
- Upaya optimasi prompt seperti “⚡ THINK QUICKLY” justru memperlambat
Kesimpulan dan implikasi
- LLM memang memiliki kemampuan untuk menjalankan logika aplikasi secara langsung
- Permasalahannya terletak pada keterbatasan performa seperti kecepatan, biaya, konsistensi, dan keandalan
- Namun, keterbatasan ini lebih merupakan wilayah perbaikan kuantitatif daripada masalah kualitatif
- Kecepatan inferensi meningkat sekitar 10 kali setiap tahun
- Biaya terus menurun
- Perluasan panjang konteks berpotensi memperbaiki memori
- Tingkat kesalahan juga menunjukkan tren menurun
- Pada akhirnya, era “AI menulis kode” mungkin justru lebih jauh daripada era “AI mengeksekusi langsung”
- Saat ini yang tersisa hanyalah kode tingkat infrastruktur seperti konfigurasi HTTP, definisi alat, dan koneksi DB,
yang menunjukkan kemungkinan transisi jangka panjang menuju “komputasi yang hanya terdiri dari niat dan eksekusi”
Cara menjalankan
- Setelah
npm install, atur penyedia LLM dan API key di file .env
- Jalankan
npm start lalu akses http://localhost:3001 (permintaan pertama membutuhkan 30~60 detik)
- Dengan mengubah
prompt.md, jenis aplikasi atau fiturnya dapat diganti
- Anda bisa mencoba berbagai rute seperti
/game, /dashboard, /api/stats
- Masukkan umpan balik seperti “make this purple”, “add a search box” untuk langsung menerapkannya
- Biaya per permintaan berada di kisaran $0.001~0.05, tergantung model
- Dirilis dengan lisensi MIT
Belum ada komentar.