Ringkasan:
- Clawdbot adalah asisten AI lokal open source yang menyimpan dan mengelola memori jangka panjang pengguna dalam bentuk file Markdown di lingkungan lokal pengguna, tanpa ketergantungan pada cloud.
- Melalui sistem memori 2 lapis (log harian dan pengetahuan jangka panjang) serta pencarian hibrida (vektor + kata kunci), pengambilan informasi dapat dilakukan secara efisien bahkan dalam konteks berskala besar.
- Untuk mengatasi batas context window, digunakan teknik 'compaction' dan 'pruning' agar optimasi biaya dan pemeliharaan performa dapat dicapai secara bersamaan.
Ringkasan detail:
-
Gambaran umum dan filosofi desain
Clawdbot mengelola semua memori sebagai file Markdown di dalam workspace lokal untuk mengembalikan kepemilikan data kepada pengguna. Dengan menjadikan transparansi sebagai nilai inti, sistem ini dirancang agar pengguna dapat langsung membaca, mengubah, dan melakukan version control pada file memori. -
Struktur memori 2 lapis
Memori secara garis besar dibagi menjadi dua lapisan:
- Layer 1 (Daily Logs): Mencatat ringkasan percakapan hari itu, keputusan, dan preferensi pengguna dalam file
memory/YYYY-MM-DD.md. - Layer 2 (Long-term Knowledge): Menyimpan fakta inti yang harus bertahan lintas sesi, keputusan proyek, dan profil pengguna yang tetap dalam file
MEMORY.md.
- Mesin pencarian hibrida (Hybrid Search)
Agen menggunakan alatmemory_searchuntuk mengambil memori hanya saat diperlukan:
- Pencarian semantik (Vector Search): Menemukan konten yang mirip secara makna melalui embedding (menggunakan SQLite-vec).
- Pencarian kata kunci (BM25): Secara paralel memakai mesin FTS5 untuk menemukan nama diri, tanggal, ID, dan lainnya secara presisi.
- Perhitungan skor akhir: Meningkatkan akurasi dengan menerapkan metode pembobotan
(0.7 * skor vektor) + (0.3 * skor teks).
- Teknik manajemen konteks
- Compaction: Saat mencapai batas konteks, percakapan sebelumnya diganti dengan versi ringkasannya. Khususnya, melalui tahap 'Memory Flush', informasi penting lebih dulu disimpan permanen ke file Markdown sebelum peringkasan agar kehilangan informasi dapat dicegah.
- Pruning: Menghemat token dengan memotong hasil eksekusi alat yang terlalu panjang dan tidak perlu, seperti output log berskala besar. Termasuk logika penghapusan cerdas yang mempertimbangkan TTL prompt caching milik Anthropic.
- Tech stack dan alur data
- Penyimpanan: File Markdown lokal (Source of Truth) dan SQLite (untuk pengindeksan).
- Workflow: Deteksi perubahan file (Chokidar) -> chunking (unit 400 token, overlap 80 token) -> embedding -> penyimpanan ke SQLite.
Belum ada komentar.