165 poin oleh GN⁺ 15 hari lalu | 15 komentar | Bagikan ke WhatsApp
  • Andrej Karpathy baru-baru ini mengungkapkan bahwa ia kini menghabiskan lebih banyak token untuk membangun repositori pengetahuan pribadi daripada menulis kode, dan merilis file panduan ide untuk membuat wiki berbasis LLM ini
  • Cukup berikan file ini kepada agen, maka agen akan membuat wiki sendiri dan memandu cara penggunaannya
  • Dengan pendekatan LLM yang langsung menulis dan mengelola wiki, berbeda dari RAG yang mengekstrak ulang informasi dari sumber asli setiap kali ada kueri, sistem ini membangun wiki persisten (persistent wiki) tempat pengetahuan terakumulasi secara bertahap
  • Wiki dapat dibuka di alat seperti Obsidian, lalu LLM mengedit dan memperbarui file Markdown secara real-time, sementara pengguna berfokus pada sourcing dan pertanyaan
  • Saat sumber baru ditambahkan, LLM membaca isinya lalu mengintegrasikan dan membuat referensi silang ke wiki yang sudah ada; memproses satu sumber saja dapat memperbarui 10–15 halaman wiki
  • Dapat diterapkan pada semua bidang tempat pengetahuan terakumulasi seiring waktu, seperti kesehatan dan pengelolaan tujuan pribadi, riset, catatan membaca, hingga wiki internal tim
  • Dengan menurunkan biaya pembukuan (bookkeeping) yang selama ini menjadi hambatan utama pemeliharaan wiki hingga nyaris nol, LLM menyelesaikan masalah pengelolaan wiki yang sering membuat orang menyerah

Ide inti

  • Sebagian besar cara pemanfaatan dokumen dengan LLM adalah RAG (Retrieval-Augmented Generation): mengunggah kumpulan file, lalu saat ada kueri LLM mencari chunk yang relevan dan menghasilkan jawaban
    • NotebookLM, upload file di ChatGPT, dan sebagian besar sistem RAG bekerja dengan cara ini
    • Pengetahuan diekstrak ulang setiap kali, sehingga tidak ada akumulasi pengetahuan
  • Pendekatan LLM-Wiki berbeda: alih-alih mencari langsung ke sumber asli, LLM secara bertahap membangun dan memelihara wiki persisten
    • Saat sumber baru ditambahkan, LLM membaca isinya, mengekstrak informasi penting, lalu mengintegrasikannya ke wiki yang sudah ada
    • Memperbarui halaman entitas, merevisi ringkasan topik, menandai kontradiksi antara data baru dan klaim lama, serta memperkuat sintesis
  • Wiki merupakan artefak persisten yang nilainya terus bertambah (persistent, compounding artifact): referensi silang sudah tersusun, kontradiksi sudah ditandai, dan sintesis sudah tercermin di dalamnya
  • Contoh penggunaan nyata: membuka agen LLM di satu sisi dan Obsidian di sisi lain, lalu melihat secara real-time apa yang diedit oleh LLM
    • Obsidian = IDE, LLM = programmer, wiki = codebase

Bidang penerapan

  • Pribadi: pelacakan tujuan, kesehatan, psikologi, dan pengembangan diri — mengumpulkan jurnal, artikel, dan catatan podcast untuk membangun rekam jejak diri yang terstruktur
  • Riset: membangun wiki komprehensif yang memuat tesis yang berkembang selama berminggu-minggu hingga berbulan-bulan saat membaca paper, artikel, dan laporan
  • Membaca: merangkum per bab, lalu menyusun halaman untuk tokoh, tema, dan alur — seperti Tolkien Gateway, tetapi dapat dibangun sendiri oleh pembaca pribadi dengan ribuan halaman yang saling terhubung
  • Bisnis/tim: membangun wiki internal yang dipelihara LLM dari thread Slack, transkrip rapat, dokumen proyek, dan panggilan pelanggan
  • Selain itu dapat diterapkan pada analisis kompetitor, due diligence, perencanaan perjalanan, catatan kuliah, eksplorasi hobi mendalam, dan semua bidang tempat pengetahuan terakumulasi

Arsitektur (3 lapisan)

  • Sumber mentah (Raw sources): kumpulan dokumen sumber yang dikurasi — artikel, paper, gambar, file data
    • Bersifat immutable, LLM hanya membaca dan tidak mengubahnya
    • Lapisan ini adalah source of truth
  • Wiki (The wiki): direktori file Markdown yang dihasilkan LLM — ringkasan, halaman entitas, halaman konsep, perbandingan, ikhtisar, sintesis
    • LLM sepenuhnya memiliki lapisan ini: membuat halaman, memperbaruinya saat sumber ditambahkan, dan menjaga referensi silang
    • Pengguna hanya membaca, LLM yang menulis
  • Skema (The schema): dokumen konfigurasi yang memberi tahu LLM tentang struktur wiki, konvensi, dan workflow (untuk Claude Code menggunakan CLAUDE.md, untuk Codex menggunakan AGENTS.md)
    • File konfigurasi inti yang mengubah LLM dari chatbot biasa menjadi manajer wiki yang sistematis
    • Berevolusi seiring waktu bersama pengguna dan LLM

Operasi utama

  • Ingest: menambahkan sumber baru ke koleksi sumber mentah lalu meminta LLM memprosesnya
    • LLM membaca sumber → mendiskusikan inti isinya → menulis halaman ringkasan ke wiki → memperbarui indeks → memperbarui halaman entitas dan konsep terkait → menambahkan entri log
    • Satu sumber saja dapat memengaruhi 10–15 halaman wiki
    • Bisa dilakukan satu per satu dengan keterlibatan pengguna, atau secara batch dengan pengawasan yang lebih ringan
  • Query: mengajukan pertanyaan ke wiki, lalu LLM mencari halaman yang relevan dan menyintesis jawaban beserta kutipan
    • Jawaban dapat berbentuk halaman Markdown, tabel perbandingan, slide deck (Marp), chart (matplotlib), canvas, dan lain-lain
    • Jawaban yang bagus dapat disimpan kembali sebagai halaman baru di wiki — proses eksplorasi itu sendiri menambah basis pengetahuan
  • Lint: secara berkala meminta LLM memeriksa kondisi wiki
    • Item pemeriksaan: kontradiksi antarhalaman, klaim usang yang sudah digantikan sumber terbaru, halaman yatim tanpa inbound link, konsep penting yang belum punya halaman sendiri, referensi silang yang hilang, serta celah data yang bisa diisi lewat pencarian web

Pengindeksan dan logging

  • index.md: file yang berpusat pada konten — mengatalogkan semua halaman wiki dengan tautan, ringkasan satu baris, dan metadata
    • Saat menjawab kueri, LLM lebih dulu membaca indeks lalu menelusuri halaman yang relevan
    • Bekerja baik pada skala ~100 sumber dan ratusan halaman bahkan tanpa infrastruktur RAG berbasis embedding
  • log.md: catatan kronologis — mencatat ingest, query, dan lint pass secara berurutan
    • Jika prefiks tiap entri ditulis konsisten, log bisa diparsing dengan tool Unix
      • Contoh: ## [2026-04-02] ingest | Article Titlegrep "^## \[" log.md | tail -5 untuk melihat 5 entri terbaru

Tool CLI opsional

  • Saat wiki tumbuh besar, dapat dibuat tool kecil agar LLM bekerja lebih efisien
  • qmd: mesin pencari lokal untuk file Markdown — mendukung pencarian hybrid BM25/vector dan LLM reranking, semuanya on-device
    • Mendukung CLI (LLM bisa shell out) dan server MCP (LLM bisa memakainya sebagai tool native)
  • Untuk skala kecil, file indeks saja sudah cukup, dan bila perlu kita bisa membuat skrip pencarian sederhana sendiri dengan bantuan LLM

Tips dan cara memanfaatkan tool

  • Obsidian Web Clipper: ekstensi browser yang mengubah artikel web menjadi Markdown — berguna untuk cepat menambahkan sumber ke koleksi sumber mentah
  • Penyimpanan gambar lokal: di Obsidian Settings → Files and links, atur path folder lampiran lalu simpan gambar ke disk lokal dengan shortcut
    • LLM tidak dapat membaca Markdown dengan gambar inline sekaligus, sehingga biasanya teks dibaca lebih dulu lalu gambar diperiksa secara terpisah
  • Obsidian Graph View: memahami bentuk keseluruhan wiki — ideal untuk melihat relasi koneksi, halaman hub, dan halaman yatim
  • Marp: format slide deck berbasis Markdown — tersedia plugin Obsidian, sehingga presentasi bisa dibuat langsung dari konten wiki
  • Dataview: plugin Obsidian yang menjalankan kueri terhadap frontmatter halaman — jika LLM menambahkan YAML frontmatter (tag, tanggal, jumlah sumber), maka tabel dan daftar dinamis dapat dibuat
  • Wiki adalah repositori git berisi file Markdown — menyediakan riwayat versi, branching, dan kolaborasi secara gratis

Cara kerjanya

  • Hambatan utama dalam memelihara basis pengetahuan bukanlah membaca atau berpikir, melainkan bookkeeping: memperbarui referensi silang, menjaga ringkasan tetap mutakhir, menandai kontradiksi, dan mempertahankan konsistensi di puluhan halaman
  • Alasan orang meninggalkan wiki adalah karena beban pemeliharaan meningkat lebih cepat daripada nilainya
  • LLM tidak bosan, tidak lupa memperbarui referensi silang, dan bisa menangani 15 file sekaligus → biaya pemeliharaan mendekati nol
  • Gagasan ini secara spirit terhubung dengan Memex (1945) milik Vannevar Bush: repositori pengetahuan yang personal, dikurasi secara aktif, dan tempat hubungan antardokumen sama berharganya dengan dokumen itu sendiri
    • Masalah “siapa yang memeliharanya” yang belum terpecahkan pada masa Bush kini ditangani oleh LLM

Sifat dokumen ini

  • Dokumen ini sengaja ditulis secara abstrak — tujuannya menyampaikan idenya, bukan implementasi tertentu
  • Detail seperti struktur direktori, konvensi skema, format halaman, dan tool akan berbeda tergantung domain, preferensi, dan LLM yang digunakan
  • Semua komponennya opsional dan modular — gunakan yang perlu saja, abaikan yang tidak perlu
  • Disarankan untuk membagikannya ke agen LLM lalu bersama-sama mengonkretkan versinya sesuai kebutuhan masing-masing

15 komentar

 
xguru 15 hari lalu

Ini bisa dimanfaatkan seperti pada Farzapedia: Wikipedia pribadi yang dibuat dari 2.500 entri jurnal, catatan, dan pesan

  • Menggunakan LLM untuk memasukkan 2.500 item dari jurnal, Apple Notes, dan percakapan iMessage, lalu otomatis menghasilkan 400 dokumen wiki yang rinci
  • Mencakup teman, startup, bidang riset yang diminati, anime favorit dan pengaruhnya, serta saling terhubung dengan backlink
  • Wiki ini dirancang bukan untuk dibaca pribadi, melainkan sebagai basis pengetahuan yang digunakan agen, sehingga struktur file dan backlink dibuat agar mudah dirayapi agen
  • Menghubungkan Claude Code ke wiki dan menjadikan index.md sebagai titik masuk, sehingga saat kueri agen menelusuri langsung halaman yang dibutuhkan
  • Contoh penggunaan: saat mengerjakan landing page baru dan meminta, "beri aku copy dan ide desain dengan merujuk pada gambar serta film yang belakangan menginspirasiku", agen akan menggabungkan dokumen "filosofi" berbasis dokumenter Studio Ghibli, dokumen "kompetitor" berisi tangkapan layar landing page perusahaan YC, hingga gambar merchandise Beatles era 1970-an yang telah disimpan, lalu memberikan jawaban
  • Setahun lalu sempat membangun sistem serupa berbasis RAG, tetapi performanya kurang baik, dan pendekatan agen yang menelusuri langsung lewat sistem file terbukti jauh lebih efektif
  • Saat menambahkan item baru (artikel, gambar inspirasi, catatan rapat, dll.), sistem otomatis memperbarui 2~3 dokumen yang sudah ada atau membuat dokumen baru

4 kelebihan personalisasi berbasis LLM Wiki menurut Karpathy

  • Menyebut Farzapedia di atas sebagai contoh nyata yang baik dari tweet LLM Wiki, lalu merangkum 4 kelebihan pendekatan ini dibanding cara personalisasi AI lama yang "semakin dipakai akan membaik sendiri"
  • Eksplisit (Explicit): hasil memori hadir jelas dalam bentuk wiki, sehingga bisa langsung memeriksa dan mengelola apa yang diketahui dan tidak diketahui AI — pengetahuan tidak terkubur di dalam sistem yang buram, melainkan ada dalam bentuk yang terlihat
  • Kepemilikan data (Yours): data disimpan di komputer lokal, bukan di sistem penyedia AI tertentu, dan tidak terkunci dalam bentuk yang tak bisa diekstrak, sehingga kendali penuh atas informasi tetap terjaga
  • File lebih utama daripada aplikasi (File over app): memori tersusun sebagai kumpulan file dalam format umum seperti Markdown dan gambar, sehingga kompatibel dengan berbagai alat dan CLI — agen bisa memanfaatkan seluruh toolkit Unix, dan pengguna dapat membukanya lewat antarmuka pilihan seperti Obsidian
  • Bebas memilih AI (BYOAI): bisa menghubungkan AI pilihan sendiri seperti Claude, Codex, OpenCode, dll. — secara prinsip, AI open source juga bisa di-fine-tune dengan wiki ini agar bukan sekadar merujuk data, tetapi menginternalisasi pengetahuan pribadi ke dalam bobot model
  • Pendekatan ini memang bukan cara paling sederhana dan tetap memerlukan pengelolaan direktori file, tetapi agen dapat banyak membantu proses tersebut
  • Menekankan bahwa "kemampuan memanfaatkan agen (agent proficiency) adalah skill inti abad ke-21", dan menganjurkan untuk langsung mencoba sendiri alat yang dapat menjalankan pekerjaan komputer hanya lewat instruksi dalam bahasa Inggris
 
dkmin 15 hari lalu

Terima kasih sudah berbagi. Saya sudah mencobanya, dan hasilnya mengagumkan.
Saya memperkirakan komunitas akan terus menghadirkan metode-metode yang lebih baik.

 
kurthong 14 hari lalu

Saya juga sudah mencoba mengimplementasikannya. Saya menambahkan sedikit agar Obsidian vault bisa terhubung ke backup GitHub saat menggunakan beberapa perangkat keras. Saya juga membuat parser untuk Codex dan Gemini lalu menyertakannya. https://github.com/hang-in/seCall

 
kuthia 12 hari lalu

Rapi sekali.

 
trpgfox 13 hari lalu

Wow, bahkan setelah membaca isi artikelnya saya masih merasa bingung, tetapi setelah merujuk ke repo Git tersebut saya mulai melihat arahnya. Terima kasih banyak.

 
kurthong 14 hari lalu

Karena bm25 kurang kuat untuk pencarian bahasa Korea, saya juga menerapkan guardrail terpisah agar pencarian dalam bahasa Korea tetap berjalan dengan baik.

 
stadia 15 hari lalu

Setelah hanya melakukan inisialisasi dasar Vault yang kosong, lalu memintanya membaca satu file itu dan mengatakan bahwa saya ingin mengonkretkan ide ini, saya pun menyusun kerangka keseluruhannya dengan skill brainstorming dari superpowers, hingga selesai menyiapkan CLAUDE.md dan pengaturan plugin Obsidian.

 
sudoeng 14 hari lalu

Saya juga merasa ide untuk memanfaatkannya seperti repositori pengetahuan pribadi ini cukup menarik.
Namun, saya masih belum yakin apakah AI akan mampu menangani konteks wiki yang terus menumpuk.

 
kurthong 14 hari lalu

Dalam konteks besar, ini pada dasarnya adalah pencarian percakapan lama, jadi jika isu pengorganisasiannya bisa ditata dengan baik, menurut saya ini ide yang bagus. Dalam praktiknya, saya juga melihat ini sangat membantu untuk merapikan proyek.

 
huturufu 15 hari lalu

Ternyata yang ingin kuimplementasikan di openclaw sudah muncul. Tinggal kupakai saja.

 
GN⁺ 15 hari lalu
Komentar Hacker News
  • Pendekatan ini pada akhirnya tampaknya akan mengarah ke model collapse
    Jika melihat paper Nature, semakin sering LLM menulis dokumen, kualitasnya menurun secara kumulatif karena informasi akurat yang sudah ada ditulis ulang dengan cara yang makin kurang ringkas
    Mengejutkan bahwa Karpathy tidak melihat masalah ini. Rasanya para ekstremis AI seperti kehilangan semacam "akal sehat"
    Saat mulai ingin lebih menonjolkan “saus rahasia yang kutulis sendiri” daripada hasil yang dibuat LLM, kita perlu bertanya pada diri sendiri kenapa begitu

    • Tulisan itu bukan tentang melatih LLM, melainkan memakai model yang sudah dilatih sebelumnya seperti ChatGPT atau Claude untuk menulis wiki pribadi
    • Komentar Karpathy hilang karena ter-flag, tetapi bentuknya adalah menempelkan paragraf panjang bernada mengejek yang ditulis Claude apa adanya
      Mengecewakan melihat dia bereaksi seperti itu. Mengingatkan pada ungkapan, “kalau tidak bisa bicara secara manusiawi, lebih baik diam saja”
      Banyak orang pintar tampaknya melihat ‘hantu di dalam mesin’ lalu kehilangan kepekaan manusiawinya
      Tulisan Ezra Klein “I Saw Something New in San Francisco” membahas fenomena ini dengan baik
    • Saya pernah bereksperimen membuat file HTML yang memperbarui diri sendiri, dan bahkan dengan prompt sederhana seperti di repo ini, hasilnya bekerja cukup baik tanpa loop
    • Dari pengalaman saya, LLM bahkan tidak mampu memelihara satu claude.md dengan baik. Wiki utuh akan lebih mustahil lagi
  • Saya sedang membuat sesuatu yang mirip dengan pendekatan berpusat pada kurasi
    Memori di seluruh workspace dihubungkan ke task atau proyek, lalu dikendalikan secara real-time lewat antarmuka SPA
    Bisa lihat proyek hmem
    Saya sempat mencoba membuat model masuk ke mode riset agar merapikan pengetahuan internalnya, tetapi ujung-ujungnya malah jadi kacau seperti sup LLM
    Dalam proyek coding, yang paling efektif justru requirement yang jelas, perbaikan iteratif, dan kode yang terdokumentasi dengan baik. Saat memorinya terlalu banyak, kesalahan malah bertambah

  • Ini pada akhirnya terasa seperti menunda masalah
    Untuk memelihara wiki, LLM harus terus membaca ulang wiki itu alih-alih sumber aslinya setiap kali, dan dalam proses itu error sekunder akan terus terakumulasi
    Sepertinya saat nanti muncul model generasi berikutnya dengan 10M context atau 1000 tps, pendekatan seperti ini akan jadi tidak relevan

    • Model dengan 1M context sebenarnya sudah ada, tetapi di sekitar 200 ribu hingga 300 ribu token mulai terjadi kehilangan memori. Bahkan dengan 10M context, batas fundamentalnya tetap sama
    • Saya membuat sendiri sistem berbasis Obsidian dan memakainya dengan lapisan skema terstruktur di atasnya
      Lapisan perantara ini sangat berguna untuk menangkap intensi desain dan memahami kesenjangan dengan implementasi nyata
      Saya tidak melihat nilai pada sistem self-referential yang sepenuhnya otonom. Nilai sebenarnya ada pada struktur yang memungkinkan manusia masuk dan berkata, “ini seharusnya bekerja seperti ini”
      Pada akhirnya eksperimen seperti ini memang menarik, tetapi tidak terlalu bermakna secara praktis. Penyedia model besar berkembang jauh lebih cepat, jadi menurut saya saat ini lebih baik memakai fondasi sederhana saja
    • Logika “model generasi berikutnya akan menyelesaikan semuanya” memang benar, tetapi jika percaya itu, kita jadi tidak akan pernah membangun apa pun
    • Tujuannya bukan mempertahankan seluruh konteks, melainkan membuat memori yang bisa di-query. Semacam data lake untuk ide
    • Saat ini baru berguna untuk meringkas beberapa paper menarik, tetapi di masa depan bisa menjadi alat kondensasi pengetahuan yang mampu memadatkan satu bidang penuh menjadi beberapa paper saja
  • Ide ini mengingatkan pada esai tahun 1960 “Man-Computer Symbiosis” karya Licklider
    Ini adalah konsep Intelligence Amplification, di mana manusia menetapkan tujuan, komputer mengubah hipotesis menjadi model lalu memverifikasinya, dan menangani komputasi berulang
    Lihat tautan aslinya

    • Dia bahkan sudah meramalkan konsep display untuk kolaborasi. Ia membayangkan interaksi di mana komputer mengenali grafik yang digambar tangan oleh manusia lalu langsung menampilkannya dalam bentuk yang telah dirapikan
  • Ada daftar sistem yang mengimplementasikan ide terkait di sini
    Saya menjalankan basis pengetahuan berbasis LLM bernama commonplace
    Sistem ini dirancang agar teori itu sendiri bisa dibaca dan dijalankan oleh LLM, sehingga teori menjadi runtime
    Masih kasar, tetapi cara ini cocok untuk saya

  • Saya juga membuat alat serupa khusus untuk codebase
    llmdoc mendeteksi perubahan file lewat hash, lalu LLM menyimpannya sebagai cache ringkasan berupa satu aset yang menjelaskan tiap file
    Bisa diakses lewat CLI, dan kecepatan eksplorasi kode meningkat jauh

  • Ini pada dasarnya adalah arsitektur RAG
    Memang tanpa vector DB, tetapi tetap sama dalam hal membuat indeks hubungan semantik dan menyusun struktur hierarkis untuk membantu retrieval
    Saya sedang membuat proyek atomic, sebuah basis pengetahuan AI yang menerapkan ide mirip sintesis wiki

    • RAG tidak wajib memakai embedding. Implementasi cukup dengan pencarian grep pun bisa
    • Untuk KB pribadi, menurut saya kombinasi Multimodal KB + Agentic RAG paling cocok
      Misalnya DocMason, yang mengekstrak diagram dari PPT atau Excel lalu membiarkan agen seperti Codex menganalisisnya
    • Ini bukan sekadar “hanya RAG”. Di sini LLM menulis dan memelihara wiki secara langsung, membuat backlink, dan memeriksa inkonsistensi
      Ini lebih dekat ke sintesis pengetahuan daripada retrieval. Rasanya seperti LLM mengelola Zettelkasten-nya sendiri
      Proyeknya menarik, jadi saya pasti akan melihatnya
    • Akan lebih baik kalau pembukaannya adalah “saya punya beberapa pertanyaan” tentang aplikasi seperti ini
      Saya juga sudah lama memikirkan konsep LLM-WIKI, dan OP tampaknya menggali jauh lebih dalam. Semoga ini benar-benar berkembang menjadi otak kedua
    • Sebenarnya ini mirip dengan file custom instruction milik Copilot
      Seperti dokumentasi copilot-instructions.md, strukturnya menyimpan instruksi yang dirujuk LLM
  • Saya juga pernah mencoba hal serupa dalam proyek perusahaan
    Saat fokus saya menurun karena burnout dan harus merawat keluarga, saya mendelegasikan banyak hal ke workflow multi-agent
    Semuanya berjalan di sekitar wiki markdown berbasis Obsidian, tetapi hasil akhirnya malah menciptakan bentuk baru technical debt — seperti ada sebagian otak yang kosong
    Meski begitu, workflow wiki ini terlalu adiktif sehingga sulit dihentikan

    • Saya juga khawatir akan kehilangan kemampuan untuk berpikir mendalam
    • Bukan berarti yang dilakukan salah. Hanya saja setelah melewati tingkat kompleksitas tertentu, agen tidak lagi mampu memelihara wiki, dan developer pun tidak bisa lagi memahami keseluruhannya
    • Nilai sejati dari menulis dokumentasi bukan hasil akhirnya, melainkan proses penataan pikiran selama menulis
      Sehebat apa pun hasil LLM, untuk wiki pribadi proses itu tetap lebih penting
    • Kalau ingin mendapatkan kembali waktu untuk berpikir, saya sarankan punya hobi offline
      Saya biasa berjalan-jalan atau berenang tanpa membawa ponsel untuk mengosongkan kepala. Kelelahan fisik dan kelelahan mental itu jenisnya berbeda, jadi ini membantu
  • Senang melihat pendekatan seperti ini mulai diperhatikan
    Namun jika dokumen dicampur dengan data terstruktur seperti item pekerjaan atau ADR, markdown saja akan sulit untuk di-query
    Pendekatan AGENTS.md menyiasatinya dengan membuat LLM mempelajari aturan folder, tetapi saat datanya makin kompleks, batasnya akan terlihat
    Karena itu saya sedang mengembangkan Binder
    Data disimpan di DB terstruktur, tetapi dirender sebagai markdown yang tersinkronisasi dua arah
    Ia menyediakan autocomplete dan validasi lewat LSP, sementara agen atau skrip mengakses data yang sama melalui CLI atau MCP

  • Saya membuat AS Notes untuk VS Code
    Bisa dilihat di asnotes.io
    Ini mengintegrasikan fitur sistem manajemen pengetahuan pribadi ke VS Code, sehingga markdown dan wikilink bisa ditulis, dihubungkan, dan diperbarui dengan mudah
    Juga mendukung rendering mermaid dan LaTeX
    Dengan cara ini, hasil percakapan AI bisa disimpan permanen dalam markdown, sehingga terasa memberi nilai lebih besar daripada sekadar Copilot

 
junghan0611 14 hari lalu

Akhirnya topik ini juga muncul. Saya sudah lama menggarap garden dan membuat harness dengan tema ini, jadi bagi saya ini sangat menggembirakan. Know-how dari Kapasi sangat menarik. PKM sendiri tampaknya bukan soal tingkat kesulitan teknologinya, melainkan bagaimana manusia membangun model koevolusi satu sama lain dalam proses menumpuk, menstrukturkan, dan berbagi dengan kecerdasan asing dalam jangka panjang. Jadi, apakah pertanyaan itu kembali lagi kepada manusia? Apakah manusia sudah siap untuk bersama kami? Tidak ada jawaban yang benar; masing-masing harus menumpuknya dengan pertanyaannya sendiri. Saya menantikannya. Terima kasih GeekNews atas kabar ini.

 
calvinsnax 14 hari lalu

Memang sebaiknya kita tidak punya prasangka... tapi kalau melihat komentar-komentar seperti ini, rasanya ada sesuatu yang janggal.

 
passerby 14 hari lalu

Apa alasan menulis komentar dengan bot?

 
hmmhmmhm 13 hari lalu

Apakah ini bot? Kecerdasan alien (???)