- Andrej Karpathy baru-baru ini mengungkapkan bahwa ia kini menghabiskan lebih banyak token untuk membangun repositori pengetahuan pribadi daripada menulis kode, dan merilis file panduan ide untuk membuat wiki berbasis LLM ini
- Cukup berikan file ini kepada agen, maka agen akan membuat wiki sendiri dan memandu cara penggunaannya
- Dengan pendekatan LLM yang langsung menulis dan mengelola wiki, berbeda dari RAG yang mengekstrak ulang informasi dari sumber asli setiap kali ada kueri, sistem ini membangun wiki persisten (persistent wiki) tempat pengetahuan terakumulasi secara bertahap
- Wiki dapat dibuka di alat seperti Obsidian, lalu LLM mengedit dan memperbarui file Markdown secara real-time, sementara pengguna berfokus pada sourcing dan pertanyaan
- Saat sumber baru ditambahkan, LLM membaca isinya lalu mengintegrasikan dan membuat referensi silang ke wiki yang sudah ada; memproses satu sumber saja dapat memperbarui 10–15 halaman wiki
- Dapat diterapkan pada semua bidang tempat pengetahuan terakumulasi seiring waktu, seperti kesehatan dan pengelolaan tujuan pribadi, riset, catatan membaca, hingga wiki internal tim
- Dengan menurunkan biaya pembukuan (bookkeeping) yang selama ini menjadi hambatan utama pemeliharaan wiki hingga nyaris nol, LLM menyelesaikan masalah pengelolaan wiki yang sering membuat orang menyerah
Ide inti
- Sebagian besar cara pemanfaatan dokumen dengan LLM adalah RAG (Retrieval-Augmented Generation): mengunggah kumpulan file, lalu saat ada kueri LLM mencari chunk yang relevan dan menghasilkan jawaban
- NotebookLM, upload file di ChatGPT, dan sebagian besar sistem RAG bekerja dengan cara ini
- Pengetahuan diekstrak ulang setiap kali, sehingga tidak ada akumulasi pengetahuan
- Pendekatan LLM-Wiki berbeda: alih-alih mencari langsung ke sumber asli, LLM secara bertahap membangun dan memelihara wiki persisten
- Saat sumber baru ditambahkan, LLM membaca isinya, mengekstrak informasi penting, lalu mengintegrasikannya ke wiki yang sudah ada
- Memperbarui halaman entitas, merevisi ringkasan topik, menandai kontradiksi antara data baru dan klaim lama, serta memperkuat sintesis
- Wiki merupakan artefak persisten yang nilainya terus bertambah (persistent, compounding artifact): referensi silang sudah tersusun, kontradiksi sudah ditandai, dan sintesis sudah tercermin di dalamnya
- Contoh penggunaan nyata: membuka agen LLM di satu sisi dan Obsidian di sisi lain, lalu melihat secara real-time apa yang diedit oleh LLM
- Obsidian = IDE, LLM = programmer, wiki = codebase
Bidang penerapan
- Pribadi: pelacakan tujuan, kesehatan, psikologi, dan pengembangan diri — mengumpulkan jurnal, artikel, dan catatan podcast untuk membangun rekam jejak diri yang terstruktur
- Riset: membangun wiki komprehensif yang memuat tesis yang berkembang selama berminggu-minggu hingga berbulan-bulan saat membaca paper, artikel, dan laporan
- Membaca: merangkum per bab, lalu menyusun halaman untuk tokoh, tema, dan alur — seperti Tolkien Gateway, tetapi dapat dibangun sendiri oleh pembaca pribadi dengan ribuan halaman yang saling terhubung
- Bisnis/tim: membangun wiki internal yang dipelihara LLM dari thread Slack, transkrip rapat, dokumen proyek, dan panggilan pelanggan
- Selain itu dapat diterapkan pada analisis kompetitor, due diligence, perencanaan perjalanan, catatan kuliah, eksplorasi hobi mendalam, dan semua bidang tempat pengetahuan terakumulasi
Arsitektur (3 lapisan)
- Sumber mentah (Raw sources): kumpulan dokumen sumber yang dikurasi — artikel, paper, gambar, file data
- Bersifat immutable, LLM hanya membaca dan tidak mengubahnya
- Lapisan ini adalah source of truth
- Wiki (The wiki): direktori file Markdown yang dihasilkan LLM — ringkasan, halaman entitas, halaman konsep, perbandingan, ikhtisar, sintesis
- LLM sepenuhnya memiliki lapisan ini: membuat halaman, memperbaruinya saat sumber ditambahkan, dan menjaga referensi silang
- Pengguna hanya membaca, LLM yang menulis
- Skema (The schema): dokumen konfigurasi yang memberi tahu LLM tentang struktur wiki, konvensi, dan workflow (untuk Claude Code menggunakan
CLAUDE.md, untuk Codex menggunakan AGENTS.md)
- File konfigurasi inti yang mengubah LLM dari chatbot biasa menjadi manajer wiki yang sistematis
- Berevolusi seiring waktu bersama pengguna dan LLM
Operasi utama
- Ingest: menambahkan sumber baru ke koleksi sumber mentah lalu meminta LLM memprosesnya
- LLM membaca sumber → mendiskusikan inti isinya → menulis halaman ringkasan ke wiki → memperbarui indeks → memperbarui halaman entitas dan konsep terkait → menambahkan entri log
- Satu sumber saja dapat memengaruhi 10–15 halaman wiki
- Bisa dilakukan satu per satu dengan keterlibatan pengguna, atau secara batch dengan pengawasan yang lebih ringan
- Query: mengajukan pertanyaan ke wiki, lalu LLM mencari halaman yang relevan dan menyintesis jawaban beserta kutipan
- Jawaban dapat berbentuk halaman Markdown, tabel perbandingan, slide deck (Marp), chart (matplotlib), canvas, dan lain-lain
- Jawaban yang bagus dapat disimpan kembali sebagai halaman baru di wiki — proses eksplorasi itu sendiri menambah basis pengetahuan
- Lint: secara berkala meminta LLM memeriksa kondisi wiki
- Item pemeriksaan: kontradiksi antarhalaman, klaim usang yang sudah digantikan sumber terbaru, halaman yatim tanpa inbound link, konsep penting yang belum punya halaman sendiri, referensi silang yang hilang, serta celah data yang bisa diisi lewat pencarian web
Pengindeksan dan logging
- index.md: file yang berpusat pada konten — mengatalogkan semua halaman wiki dengan tautan, ringkasan satu baris, dan metadata
- Saat menjawab kueri, LLM lebih dulu membaca indeks lalu menelusuri halaman yang relevan
- Bekerja baik pada skala ~100 sumber dan ratusan halaman bahkan tanpa infrastruktur RAG berbasis embedding
- log.md: catatan kronologis — mencatat ingest, query, dan lint pass secara berurutan
- Jika prefiks tiap entri ditulis konsisten, log bisa diparsing dengan tool Unix
- Contoh:
## [2026-04-02] ingest | Article Title → grep "^## \[" log.md | tail -5 untuk melihat 5 entri terbaru
Tool CLI opsional
- Saat wiki tumbuh besar, dapat dibuat tool kecil agar LLM bekerja lebih efisien
- qmd: mesin pencari lokal untuk file Markdown — mendukung pencarian hybrid BM25/vector dan LLM reranking, semuanya on-device
- Mendukung CLI (LLM bisa shell out) dan server MCP (LLM bisa memakainya sebagai tool native)
- Untuk skala kecil, file indeks saja sudah cukup, dan bila perlu kita bisa membuat skrip pencarian sederhana sendiri dengan bantuan LLM
Tips dan cara memanfaatkan tool
- Obsidian Web Clipper: ekstensi browser yang mengubah artikel web menjadi Markdown — berguna untuk cepat menambahkan sumber ke koleksi sumber mentah
- Penyimpanan gambar lokal: di Obsidian Settings → Files and links, atur path folder lampiran lalu simpan gambar ke disk lokal dengan shortcut
- LLM tidak dapat membaca Markdown dengan gambar inline sekaligus, sehingga biasanya teks dibaca lebih dulu lalu gambar diperiksa secara terpisah
- Obsidian Graph View: memahami bentuk keseluruhan wiki — ideal untuk melihat relasi koneksi, halaman hub, dan halaman yatim
- Marp: format slide deck berbasis Markdown — tersedia plugin Obsidian, sehingga presentasi bisa dibuat langsung dari konten wiki
- Dataview: plugin Obsidian yang menjalankan kueri terhadap frontmatter halaman — jika LLM menambahkan YAML frontmatter (tag, tanggal, jumlah sumber), maka tabel dan daftar dinamis dapat dibuat
- Wiki adalah repositori git berisi file Markdown — menyediakan riwayat versi, branching, dan kolaborasi secara gratis
Cara kerjanya
- Hambatan utama dalam memelihara basis pengetahuan bukanlah membaca atau berpikir, melainkan bookkeeping: memperbarui referensi silang, menjaga ringkasan tetap mutakhir, menandai kontradiksi, dan mempertahankan konsistensi di puluhan halaman
- Alasan orang meninggalkan wiki adalah karena beban pemeliharaan meningkat lebih cepat daripada nilainya
- LLM tidak bosan, tidak lupa memperbarui referensi silang, dan bisa menangani 15 file sekaligus → biaya pemeliharaan mendekati nol
- Gagasan ini secara spirit terhubung dengan Memex (1945) milik Vannevar Bush: repositori pengetahuan yang personal, dikurasi secara aktif, dan tempat hubungan antardokumen sama berharganya dengan dokumen itu sendiri
- Masalah “siapa yang memeliharanya” yang belum terpecahkan pada masa Bush kini ditangani oleh LLM
Sifat dokumen ini
- Dokumen ini sengaja ditulis secara abstrak — tujuannya menyampaikan idenya, bukan implementasi tertentu
- Detail seperti struktur direktori, konvensi skema, format halaman, dan tool akan berbeda tergantung domain, preferensi, dan LLM yang digunakan
- Semua komponennya opsional dan modular — gunakan yang perlu saja, abaikan yang tidak perlu
- Disarankan untuk membagikannya ke agen LLM lalu bersama-sama mengonkretkan versinya sesuai kebutuhan masing-masing
15 komentar
Ini bisa dimanfaatkan seperti pada Farzapedia: Wikipedia pribadi yang dibuat dari 2.500 entri jurnal, catatan, dan pesan
index.mdsebagai titik masuk, sehingga saat kueri agen menelusuri langsung halaman yang dibutuhkan4 kelebihan personalisasi berbasis LLM Wiki menurut Karpathy
Terima kasih sudah berbagi. Saya sudah mencobanya, dan hasilnya mengagumkan.
Saya memperkirakan komunitas akan terus menghadirkan metode-metode yang lebih baik.
Saya juga sudah mencoba mengimplementasikannya. Saya menambahkan sedikit agar Obsidian vault bisa terhubung ke backup GitHub saat menggunakan beberapa perangkat keras. Saya juga membuat parser untuk Codex dan Gemini lalu menyertakannya. https://github.com/hang-in/seCall
Rapi sekali.
Wow, bahkan setelah membaca isi artikelnya saya masih merasa bingung, tetapi setelah merujuk ke repo Git tersebut saya mulai melihat arahnya. Terima kasih banyak.
Karena
bm25kurang kuat untuk pencarian bahasa Korea, saya juga menerapkan guardrail terpisah agar pencarian dalam bahasa Korea tetap berjalan dengan baik.Setelah hanya melakukan inisialisasi dasar Vault yang kosong, lalu memintanya membaca satu file itu dan mengatakan bahwa saya ingin mengonkretkan ide ini, saya pun menyusun kerangka keseluruhannya dengan skill brainstorming dari superpowers, hingga selesai menyiapkan
CLAUDE.mddan pengaturan plugin Obsidian.Saya juga merasa ide untuk memanfaatkannya seperti repositori pengetahuan pribadi ini cukup menarik.
Namun, saya masih belum yakin apakah AI akan mampu menangani konteks wiki yang terus menumpuk.
Dalam konteks besar, ini pada dasarnya adalah pencarian percakapan lama, jadi jika isu pengorganisasiannya bisa ditata dengan baik, menurut saya ini ide yang bagus. Dalam praktiknya, saya juga melihat ini sangat membantu untuk merapikan proyek.
Ternyata yang ingin kuimplementasikan di openclaw sudah muncul. Tinggal kupakai saja.
Komentar Hacker News
Pendekatan ini pada akhirnya tampaknya akan mengarah ke model collapse
Jika melihat paper Nature, semakin sering LLM menulis dokumen, kualitasnya menurun secara kumulatif karena informasi akurat yang sudah ada ditulis ulang dengan cara yang makin kurang ringkas
Mengejutkan bahwa Karpathy tidak melihat masalah ini. Rasanya para ekstremis AI seperti kehilangan semacam "akal sehat"
Saat mulai ingin lebih menonjolkan “saus rahasia yang kutulis sendiri” daripada hasil yang dibuat LLM, kita perlu bertanya pada diri sendiri kenapa begitu
Mengecewakan melihat dia bereaksi seperti itu. Mengingatkan pada ungkapan, “kalau tidak bisa bicara secara manusiawi, lebih baik diam saja”
Banyak orang pintar tampaknya melihat ‘hantu di dalam mesin’ lalu kehilangan kepekaan manusiawinya
Tulisan Ezra Klein “I Saw Something New in San Francisco” membahas fenomena ini dengan baik
claude.mddengan baik. Wiki utuh akan lebih mustahil lagiSaya sedang membuat sesuatu yang mirip dengan pendekatan berpusat pada kurasi
Memori di seluruh workspace dihubungkan ke task atau proyek, lalu dikendalikan secara real-time lewat antarmuka SPA
Bisa lihat proyek hmem
Saya sempat mencoba membuat model masuk ke mode riset agar merapikan pengetahuan internalnya, tetapi ujung-ujungnya malah jadi kacau seperti sup LLM
Dalam proyek coding, yang paling efektif justru requirement yang jelas, perbaikan iteratif, dan kode yang terdokumentasi dengan baik. Saat memorinya terlalu banyak, kesalahan malah bertambah
Ini pada akhirnya terasa seperti menunda masalah
Untuk memelihara wiki, LLM harus terus membaca ulang wiki itu alih-alih sumber aslinya setiap kali, dan dalam proses itu error sekunder akan terus terakumulasi
Sepertinya saat nanti muncul model generasi berikutnya dengan 10M context atau 1000 tps, pendekatan seperti ini akan jadi tidak relevan
Lapisan perantara ini sangat berguna untuk menangkap intensi desain dan memahami kesenjangan dengan implementasi nyata
Saya tidak melihat nilai pada sistem self-referential yang sepenuhnya otonom. Nilai sebenarnya ada pada struktur yang memungkinkan manusia masuk dan berkata, “ini seharusnya bekerja seperti ini”
Pada akhirnya eksperimen seperti ini memang menarik, tetapi tidak terlalu bermakna secara praktis. Penyedia model besar berkembang jauh lebih cepat, jadi menurut saya saat ini lebih baik memakai fondasi sederhana saja
Ide ini mengingatkan pada esai tahun 1960 “Man-Computer Symbiosis” karya Licklider
Ini adalah konsep Intelligence Amplification, di mana manusia menetapkan tujuan, komputer mengubah hipotesis menjadi model lalu memverifikasinya, dan menangani komputasi berulang
Lihat tautan aslinya
Ada daftar sistem yang mengimplementasikan ide terkait di sini
Saya menjalankan basis pengetahuan berbasis LLM bernama commonplace
Sistem ini dirancang agar teori itu sendiri bisa dibaca dan dijalankan oleh LLM, sehingga teori menjadi runtime
Masih kasar, tetapi cara ini cocok untuk saya
Saya juga membuat alat serupa khusus untuk codebase
llmdoc mendeteksi perubahan file lewat hash, lalu LLM menyimpannya sebagai cache ringkasan berupa satu aset yang menjelaskan tiap file
Bisa diakses lewat CLI, dan kecepatan eksplorasi kode meningkat jauh
Ini pada dasarnya adalah arsitektur RAG
Memang tanpa vector DB, tetapi tetap sama dalam hal membuat indeks hubungan semantik dan menyusun struktur hierarkis untuk membantu retrieval
Saya sedang membuat proyek atomic, sebuah basis pengetahuan AI yang menerapkan ide mirip sintesis wiki
greppun bisaMisalnya DocMason, yang mengekstrak diagram dari PPT atau Excel lalu membiarkan agen seperti Codex menganalisisnya
Ini lebih dekat ke sintesis pengetahuan daripada retrieval. Rasanya seperti LLM mengelola Zettelkasten-nya sendiri
Proyeknya menarik, jadi saya pasti akan melihatnya
Saya juga sudah lama memikirkan konsep LLM-WIKI, dan OP tampaknya menggali jauh lebih dalam. Semoga ini benar-benar berkembang menjadi otak kedua
Seperti dokumentasi
copilot-instructions.md, strukturnya menyimpan instruksi yang dirujuk LLMSaya juga pernah mencoba hal serupa dalam proyek perusahaan
Saat fokus saya menurun karena burnout dan harus merawat keluarga, saya mendelegasikan banyak hal ke workflow multi-agent
Semuanya berjalan di sekitar wiki markdown berbasis Obsidian, tetapi hasil akhirnya malah menciptakan bentuk baru technical debt — seperti ada sebagian otak yang kosong
Meski begitu, workflow wiki ini terlalu adiktif sehingga sulit dihentikan
Sehebat apa pun hasil LLM, untuk wiki pribadi proses itu tetap lebih penting
Saya biasa berjalan-jalan atau berenang tanpa membawa ponsel untuk mengosongkan kepala. Kelelahan fisik dan kelelahan mental itu jenisnya berbeda, jadi ini membantu
Senang melihat pendekatan seperti ini mulai diperhatikan
Namun jika dokumen dicampur dengan data terstruktur seperti item pekerjaan atau ADR, markdown saja akan sulit untuk di-query
Pendekatan AGENTS.md menyiasatinya dengan membuat LLM mempelajari aturan folder, tetapi saat datanya makin kompleks, batasnya akan terlihat
Karena itu saya sedang mengembangkan Binder
Data disimpan di DB terstruktur, tetapi dirender sebagai markdown yang tersinkronisasi dua arah
Ia menyediakan autocomplete dan validasi lewat LSP, sementara agen atau skrip mengakses data yang sama melalui CLI atau MCP
Saya membuat AS Notes untuk VS Code
Bisa dilihat di asnotes.io
Ini mengintegrasikan fitur sistem manajemen pengetahuan pribadi ke VS Code, sehingga markdown dan wikilink bisa ditulis, dihubungkan, dan diperbarui dengan mudah
Juga mendukung rendering mermaid dan LaTeX
Dengan cara ini, hasil percakapan AI bisa disimpan permanen dalam markdown, sehingga terasa memberi nilai lebih besar daripada sekadar Copilot
Akhirnya topik ini juga muncul. Saya sudah lama menggarap garden dan membuat harness dengan tema ini, jadi bagi saya ini sangat menggembirakan. Know-how dari Kapasi sangat menarik. PKM sendiri tampaknya bukan soal tingkat kesulitan teknologinya, melainkan bagaimana manusia membangun model koevolusi satu sama lain dalam proses menumpuk, menstrukturkan, dan berbagi dengan kecerdasan asing dalam jangka panjang. Jadi, apakah pertanyaan itu kembali lagi kepada manusia? Apakah manusia sudah siap untuk bersama kami? Tidak ada jawaban yang benar; masing-masing harus menumpuknya dengan pertanyaannya sendiri. Saya menantikannya. Terima kasih GeekNews atas kabar ini.
Memang sebaiknya kita tidak punya prasangka... tapi kalau melihat komentar-komentar seperti ini, rasanya ada sesuatu yang janggal.
Apa alasan menulis komentar dengan bot?
Apakah ini bot? Kecerdasan alien (???)