1 poin oleh GN⁺ 11 jam lalu | 1 komentar | Bagikan ke WhatsApp
  • Disusun agar beberapa agen AI berkolaborasi di kantor yang sama, dengan menonjolkan alur kerja yang terlihat melalui UI browser dan susunan tim per peran alih-alih panggilan API tersembunyi
  • Memori dibagi menjadi notebook per agen dan wiki bersama tim; konteks kerja mentah tetap disimpan di sisi pribadi, sementara hanya fakta terverifikasi dan playbook berulang yang dinaikkan menjadi pengetahuan bersama
  • Wiki bawaan tidak sekadar folder dokumen, tetapi berjalan sebagai repositori Git lokal, serta menyediakan sistem alat yang mengutamakan file seperti typed facts, log append-only, brief hasil sintesis LLM, /lookup, dan /lint
  • Sesi dimulai ulang setiap giliran dan alat juga dibatasi per agen; dikombinasikan dengan model eksekusi push-driven dan cache prompt agar volume input tetap datar tanpa bergantung pada panjang sesi
  • Dengan menghubungkan Telegram, OpenClaw, One CLI, hingga Composio untuk menarik pesan dan eksekusi aksi dari luar, sistem ini tetap menyatukan memori tim dan kolaborasi agen dalam satu ruang berbasis open source self-hosted dan penggunaan API key milik sendiri

Struktur memori dan wiki

  • Memisahkan notebook per agen dan wiki bersama tim, sehingga konteks kerja pribadi dan pengetahuan organisasi dikelola pada lapisan yang berbeda
  • Notebook menyimpan konteks mentah, observasi, dan kesimpulan sementara yang diperoleh saat bekerja; hanya informasi yang tahan lama seperti playbook berulang, fakta terverifikasi, dan preferensi yang sudah pasti yang dirancang untuk dipromosikan ke wiki
  • Tidak ada informasi yang dipromosikan secara otomatis; agen sendiri yang menentukan item mana dari notebook yang akan dipindahkan ke wiki
  • Wiki menyertakan informasi tentang pihak yang terakhir mencatat konteks tersebut, sehingga agen lain dapat memutuskan siapa yang perlu disebut lagi
  • Pada instalasi baru, backend markdown menjadi default, sedangkan workspace Nex atau GBrain yang sudah ada tetap mempertahankan backend knowledge graph yang ada
  • Jika memilih backend none, wiki bersama dimatikan, tetapi notebook lokal tetap berjalan

Cara kerja markdown wiki

  • Wiki bawaan bukan sekadar folder Markdown, melainkan wiki tim berbasis repositori Git lokal dengan path ~/.wuphf/wiki/
  • Di dalamnya terdapat typed facts berbentuk triplet, log fakta append-only per entitas, brief hasil sintesis LLM, /lookup berbasis sitasi, serta /lint untuk mencari kontradiksi, dokumen yatim, klaim usang, dan referensi silang yang rusak
  • Brief hasil sintesis LLM di-commit dengan identitas archivist, dan sistem alat yang mengutamakan file seperti cat, grep, git log, dan git clone dapat dimanfaatkan apa adanya
  • Wiki bawaan ini dapat digunakan tanpa API key
  • Dalam penamaan internal kode, notebook adalah memori private, sedangkan wiki adalah memori shared, dan backend markdown serta backend nex·gbrain memakai permukaan alat MCP yang berbeda
  • Kumpulan alat backend markdown dan kumpulan alat legacy milik nex·gbrain tidak hidup berdampingan dalam instans server yang sama
  • Dokumen detail terkait berlanjut di DESIGN-WIKI.md, docs/specs/WIKI-SCHEMA.md

Model eksekusi dan opsi konfigurasi

  • CLI agen default adalah Claude Code, dan Codex CLI juga dapat dipilih dengan --provider codex
  • Backend memori dapat dipilih dari nex, gbrain, none, atau markdown sebagai default
  • Walaupun memakai --no-nex, fitur integrasi lokal seperti Telegram tetap berjalan, dan setelah dijalankan dapat kembali ke mode delegasi routing CEO melalui /focus
  • Saat memilih gbrain, onboarding awal meminta key OpenAI atau Anthropic; jika membutuhkan embedding dan pencarian vektor, OpenAI harus digunakan
  • Role pack yang disediakan adalah starter, founding-team, coding-team, lead-gen-agency, revops
  • Flag seperti --opus-ceo, --no-open, --web-port, --unsafe memungkinkan penyesuaian model, pembukaan browser otomatis, port, dan pemeriksaan izin
  • Repositori ini masih berada pada status pre-1.0 dan branch main dapat berubah setiap hari, sehingga saat melakukan fork disarankan mengunci ke release tag alih-alih main

Kolaborasi dan integrasi eksternal

  • Mendukung bridge Telegram; setelah menjalankan /connect di dalam kantor, pengguna dapat memilih Telegram lalu memasukkan token @BotFather untuk menghubungkan aliran pesan dua arah dengan grup atau DM
  • Agen OpenClaw juga dapat dibawa masuk melalui /connect openclaw, dengan menjembatani sesi menggunakan URL gateway dan gateway.auth.token dari ~/.openclaw/openclaw.json
  • Sesi OpenClaw masuk sebagai anggota kelas satu di dalam kantor dan dapat di-@mention, sementara eksekusi sebenarnya tetap berlangsung di sandbox masing-masing
  • Autentikasi gateway OpenClaw menggunakan pasangan kunci Ed25519, dan kunci disimpan di ~/.wuphf/openclaw/identity.json dengan izin 0600
  • Untuk eksekusi aksi eksternal, sistem ini menyertakan dua provider, yaitu One CLI dan Composio
  • One CLI digunakan sebagai binary lokal untuk menjalankan aksi di mesin pengguna, sesuai dengan alur yang tidak mengirim kredensial ke pihak ketiga
  • Composio menggunakan alur OAuth ter-host Composio untuk menghubungkan akun SaaS seperti Gmail dan Slack

Pilihan desain dan karakteristik operasional

  • Sesi dimulai ulang pada setiap giliran, dengan memilih struktur yang tidak menumpuk riwayat percakapan
  • Alat dibatasi cakupannya per agen; dalam DM hanya 4 alat MCP yang dimuat, sementara di seluruh kantor ada 27 alat yang dimuat
  • Agen memakai model push-driven yang hanya bangun ketika broker mendorong notifikasi, sehingga tidak memerlukan heartbeat polling
  • Bahkan saat tugas sedang berjalan, pengguna dapat mengirim DM ke agen tertentu untuk penyesuaian di tengah jalan tanpa restart
  • Runtime Claude Code, Codex, dan OpenClaw dapat dicampur dalam satu channel
  • Memori menggabungkan notebook per agen dan wiki workspace, serta juga dapat memilih memori berbasis knowledge graph dari GBrain atau Nex
  • Dari sisi harga, sistem ini menonjolkan model open source gratis dengan kombinasi lisensi MIT, self-hosting, dan penggunaan API key milik sendiri
  • Pada pengukuran sesi CEO 10 giliran berbasis Codex, token input tetap datar di sekitar 87k per giliran
  • Token yang ditagihkan setelah cache sekitar 40k per giliran, dengan total 10 giliran sekitar 286k
  • Berdasarkan cache prompt Claude API, sistem ini mencatat cache hit rate 97%, dan biaya 5 giliran Claude Code tertulis $0.06
  • Sementara orchestrator sesi kumulatif membuat input per giliran membesar dari 124k ke 484k dalam sesi yang sama, WUPHF mempertahankan volume input yang datar tanpa bergantung pada panjang sesi
  • Disebutkan bahwa perbedaan ini terukur sebagai selisih 7x pada acuan 8 giliran
  • Karakteristik ini terkait dengan fresh session, prompt caching berbasis prefiks yang sama, jumlah alat yang sedikit pada mode DM, dan struktur wake push-driven tanpa heartbeat
  • Sebagai skrip reproduksi, ditunjukkan wuphf --pack starter & lalu ./scripts/benchmark.sh, dan semua angka diukur langsung pada lingkungan lokal dan key milik pengguna

Status implementasi dan alur verifikasi

  • Untuk tiap item utama di README, tersedia tabel claim status yang langsung menghubungkan path kode, untuk membedakan mana yang shipped dan mana yang partial
  • Ditandai sebagai shipped: CEO default adalah Sonnet dan dapat di-upgrade dengan --opus-ceo, default collaborative mode, perpindahan /focus, per-agent MCP scoping, fresh session, push-driven wake, isolasi workspace, bridge Telegram, dua provider aksi, bridge OpenClaw, wuphf import, dan default --memory-backend markdown
  • Streaming agen web langsung ditandai partial, sedangkan binary prebuilt berbasis goreleaser ditandai config ready
  • Pemulihan tugas yang sedang berjalan saat restart tertulis shipped pada v0.0.2.0
  • LLM Wiki diperlakukan sebagai shipped dengan memori tim git-native dan UI bergaya Wikipedia, dengan lokasi implementasi terkait di internal/team/wiki_git.go, internal/team/wiki_worker.go, web/src/components/wiki/, DESIGN-WIKI.md
  • Jika claim dan status saling bertentangan, kode menjadi sumber kebenaran, dan bila menemukan masalah, pengguna diarahkan untuk membuka issue

Materi evaluasi dan demo

  • Sebelum fork, tersedia prompt fork-or-skip untuk mengevaluasi repositori dengan bantuan AI coding, yang meminta path file, nomor baris, dan putusan dalam kurang dari 500 kata tanpa bahasa pemasaran
  • Tertulis bahwa prompt ini juga digunakan secara internal sebelum rilis
  • Sebagai demo terminal 5 menit yang menunjukkan alur wiki benar-benar ditulis, ditampilkan ./scripts/demo-entity-synthesis.sh
  • Dalam demo ini, agen mencatat lima fakta, lalu ambang sintesis terpicu, broker memanggil CLI LLM lokal, hasilnya di-commit ke repositori Git dengan identitas archivist, dan seluruh rantai penulisan tertinggal di git log
  • Persyaratan demo adalah curl, python3, broker yang berjalan dengan --memory-backend markdown, serta CLI LLM yang didukung di antara claude, codex, atau openclaw harus tersedia di PATH

1 komentar

 
GN⁺ 11 jam lalu
Opini Hacker News
  • Saya kurang paham inti dari otomatisasi catatan. Dulu pun metode menyalin-tempel teks ke catatan sama sekali tidak membantu, jadi saya ragu apakah memperbanyaknya 100 kali akan membuat perbedaan
    Bagi saya, inti dari catatan adalah membaca sumber secara kritis, mencernanya sesuai model mental saya, lalu mencatatnya
    Detailnya bisa dicari lagi nanti, dan pada akhirnya yang penting adalah proses menyempurnakan model itu

    • Ini tampaknya lebih dari sekadar mencatat. Praktis lebih mirip harness lain untuk mengoordinasikan pekerjaan antar agen dengan campur tangan manusia seminimal mungkin
      Kalau begitu, mungkin tujuannya justru menyerahkannya ke LLM brain bersama alih-alih membangun model mental itu sendiri
      Namun saya cukup ragu apakah pendekatan seperti ini benar-benar bisa menghasilkan sesuatu yang bernilai bagi pemilik produk. Jika produk bernilai bisa dibuat hanya dengan prompt dan harness agen, maka siapa pun bisa membuat ulang produk itu, pengembangan produk sendiri menjadi commodity, dan pada akhirnya mungkin yang tersisa nilainya hanya token
      Hipotesis saya adalah do things that don’t scale dari Paul Graham akan tetap relevan ke depan, hanya saja isi dari hal-hal yang tidak bisa diskalakan itu yang kemungkinan berubah
      Meski begitu, belakangan ini saya mulai benar-benar memakai Obsidian. Setelah menyiapkan skill untuk mencatat, riset, menghubungkan tautan, memecah, dan menyusun ulang basis pengetahuan, rasanya seperti punya asisten digital yang membantu merapikan
      Sekarang saya cukup menuliskan pikiran-pikiran acak, lalu agen membantu memberi struktur, mengajukan pertanyaan lanjutan, dan menghubungkannya ke pekerjaan lain. Membaca sumber dan membangun model mental tetap saya lakukan sendiri, tetapi saya hampir mendapatkan catatan berkualitas secara gratis
    • Saya rasa masalah seriusnya adalah orang membuat begitu banyak pekerjaan remeh dengan AI lalu tidak pernah melihatnya lagi
      Itu pemborosan besar
    • Untuk urusan mencatat saya sepenuhnya setuju. Catatan diperlakukan terlalu enteng, dan akhirnya menumpuk melebihi kebutuhan seperti loteng atau ruang bawah tanah
      Kebanyakan hal sebenarnya sejak awal tidak perlu masuk ke catatan, dan LLM justru terlalu banyak menambah noise tanpa verifikasi atau penyaringan yang layak
      Ada esai JA Westenberg yang bagus tentang topik ini
      https://youtube.com/watch?v=3E00ZNdFbEk
    • Dari sedikit riset ilmiah yang sudah terbit sejauh ini, ketika koleksi markdown seperti ini dipelihara sepenuhnya oleh LLM, kualitas hasilnya justru menurun, sedangkan ketika dipelihara manusia hasilnya membaik
      Cukup menarik
      Menurut saya titik optimalnya adalah kurasi manusia, dan operasi tanpa pengawasan bukan jawabannya, terutama jika debt atau drift tidak dikelola secara sadar
    • Awalnya saya juga kira ini parodi
      Apalagi namanya sama dengan produk yang tidak berguna dan redundan Wuphf.com dari The Office
  • Rasanya sekarang cukup menempelkan AI ke nama produk lalu miliaran dolar datang, dan cukup menyisipkan Karpathy ke tulisan blog lalu direkrut jadi principal engineer di Anthropic
    Terasa seperti cuma gerakan memeras uang selama tren ini masih berjalan, dan tidak terlalu memperhatikan apa yang sebenarnya dibutuhkan pelanggan
    Semua orang seperti berlari ikut arus selagi ombaknya ada

    • Mirip NFT, sebelumnya blockchain, dan dalam beberapa hal juga mirip demam Web 2.0
      Bedanya, waktu itu orang benar-benar membangun sesuatu, dan kondisi pendanaan yang lebih ketat sedikit menahan panas berlebih
      Setidaknya boom LLM kali ini memang punya kemungkinan dan nilai nyata sampai tingkat tertentu, dan teknologinya juga cukup menyenangkan untuk dipelajari dan dicoba
      Sejak lama saya menerima bahwa kalau uang mengalir ke suatu tempat, maka selama tidak tidak etis, masuk akal untuk menangkap peluang di sana. Selagi dana VC/PE melimpah, kita juga bisa membangun sesuatu yang keren dan bernilai
    • Bukankah yang penting jadi dulu. Ada alasan semua orang membuat alat AI, dan faktanya kita semua membelinya
      Saya masih menunggu harness CLI kelas dunia yang bisa menggantikan Claude Code. Saya butuh sesuatu yang menyelesaikan masalah memori dan masalah desain
      Desain web masih nyaris seperti mimpi buruk kalau dikerjakan dengan LLM
    • Tahun lalu saya sudah membuat CRM AI-native dengan dukungan pendiri HubSpot, Dharmesh Shah, sudah ada pendapatan juga, lalu dari situ saya beberapa kali mengubah arah dan menyimpulkan bahwa context graph infra adalah moat yang tepat
      Kami juga menjalankan PoC enterprise, dan semua itu akhirnya mengerucut ke proyek ini yang saya bangun di samping untuk membantu pekerjaan saya sendiri. Hasil akhirnya, antarmuka yang paling enak dipakai untuk context infra ternyata justru ini
      Saya tidak tertarik dengan posisi principal engineer di Anthropic. Dulu saya Product Manager di HubSpot dan penghasilan saya jauh lebih besar daripada sekarang, dan kemungkinan beberapa tahun ke depan pun saya belum tentu bisa kembali ke level itu
      Saya berulang kali bertaruh dan terus melakukan iterasi karena produknya berkembang lewat percakapan langsung dengan pelanggan. Sementara itu, para pesaing lama masih saja diam-diam membuat AI CRM
      Sebagai orang yang sudah lama di industri ini, ombaknya sendiri tidak terlalu penting, tetapi saya yakin ada nilai nyata yang bisa diambil dari bawah ombak itu
  • Saya melihat ulasan ini: https://zby.github.io/commonplace/agent-memory-systems/reviews/wuphf/
    Ini wiki LLM ketiga yang naik ke front page dalam 24 jam, jadi jelas topiknya sedang panas
    Saya juga punya kepentingan di area ini, jadi tidak sepenuhnya objektif, tetapi saya sudah merangkum terpisah hal-hal yang saya inginkan dari sistem seperti ini
    https://zby.github.io/commonplace/notes/designing-agent-memory-systems/
    Rasanya semua orang membangun sistem mereka masing-masing dari nol sehingga biaya duplikasi investasinya terlalu besar; saya harap ada jalan untuk berkolaborasi

    • Catatannya cukup menarik
      Hanya saja dari gaya tulisannya terlihat jelas ditulis oleh LLM, jadi saya penasaran apakah untuk catatan desain seperti ini Anda biasanya merapikannya lagi nanti dengan kata-kata sendiri untuk memastikan itu benar-benar berisi pemikiran Anda
    • Saya sangat menyukai bagian Borrowable Ideas, dan semoga benar-benar banyak yang mengambil ide dari sana
      Kami memulai sebagai perusahaan context infra bernama nex.ai jauh sebelum Karpathy mengemukakan ide wiki LLM, dan meskipun fungsi itu masih hampir tidak terlihat di WUPHF, sekarang perlahan kami mulai membukanya
      Menyenangkan melihat banyak kekhawatiran yang ditulis di artikel perbandingan itu sudah kami tangani dalam context infra yang kami bangun
      Tetap saja, kami sangat terbuka pada kolaborasi untuk mengurangi duplikasi dan saling berbagi pelajaran yang didapat
    • Jelas ada sisi di mana slot machine generatif membuat orang terisolasi
      Anda bilang berharap ada kesempatan berkolaborasi, jadi agak aneh terdengar seolah-olah saat ini tidak ada kesempatan seperti itu
    • Akan saya baca
    • Sejujurnya menurut saya sekarang kita sudah masuk ke wilayah bangun dan jalankan sendiri
      Menambahkan QMD ke vault Obsidian saja sudah mungkin memberi 80%, dan barangkali tidak sampai 2 jam
  • Untuk konteks, ada juga tautan ke tulisan asli Karpathy
    https://x.com/karpathy/status/2039805659525644595
    https://xcancel.com/karpathy/status/2039805659525644595

  • Saya penasaran apakah AI Notes akan menambah nilai atau malah cuma menambah noise
    Tapi gaya ASCII situsnya cukup saya suka

  • Sebagai solusi untuk masalah ini, saya berharap ada yang membuat sesuatu seperti kebangkitan StackOverflow
    Kurasi dilakukan manusia, tetapi jika sekumpulan LLM kolektif mentok saat memecahkan masalah, mereka mengajukan pertanyaan dengan cara lama sehingga menjadi graf pengetahuan terdistribusi
    Kalau agen saya berkata, "Saya mentok di sini, saya sudah memposting pertanyaan di SO, jadi mari kembali lagi nanti kalau ada jawaban," rasanya itu sudah cukup baik

  • Saya penasaran bagaimana caranya mencegah LLM menulis terlalu banyak
    Saya sudah membuat beberapa alat dan sistem serupa, dan semuanya berakhir sama: LLM terus menggembungkan dokumen sampai seluruh sistem jadi berantakan, dan makin besar justru makin tidak berguna
    Salah satu eksperimen yang pernah saya lakukan dulu adalah memberi beberapa tautan lalu membiarkan LLM meneliti topik terkait, membuat wiki pengetahuan-nya sendiri, dan menyusun ringkasan, tautan silang, serta sumber di setiap halaman
    Dari luar terlihat bagus, tetapi saat data nyatanya dibaca hasilnya kurang meyakinkan
    Itu eksperimen beberapa tahun lalu, jadi mungkin sekarang ada gunanya dicoba lagi dengan sesuatu seperti opus 4.7

  • Sebagai bahan pemikiran, komunitas TiddlyWiki tentu juga sudah mengeksplorasi alat AI
    TiddlyWiki adalah wiki berbasis satu file HTML yang bisa memodifikasi dirinya sendiri, dan sudah bertahan lebih dari 20 tahun
    Memang belum benar-benar berkembang menjadi lingkungan agentic, tetapi ada plugin markdown, serta alat untuk membuat file bisa dieksekusi atau diubah menjadi webapp self-serving. Git agak merepotkan
    Jadi secara teori, wiki agentic satu file yang berkeliling sambil memodifikasi dirinya sendiri pun memungkinkan
    https://tiddlywiki.com/

    • Sebagai catatan, orang yang pertama membuat TiddlyWiki itu adalah saya
      Konfigurasi single-file yang Anda sebut sudah punya beberapa konektor LLM. Misalnya https://github.com/rimir-cc/tw-llm-connect
      Daya tariknya memang tepat di situ. Tidak ada dependensi, tidak perlu instalasi, dan sangat mudah disimpan, jadi konfigurasi wiki agentic satu file yang mengedit dirinya sendiri sudah bisa dilakukan hari ini juga
      Yang lebih dekat ke pola LLM Wiki ala Karpathy, saya juga sedang mengerjakan twillm
      https://github.com/Jermolene/twillm
      Ini memakai konfigurasi Node.js milik TiddlyWiki, menyimpan tiddler sebagai file terpisah, sehingga bisa langsung menunjuk ke vault Markdown yang sudah ada dan dipakai bersama alat seperti Claude Code
      Kelebihan TiddlyWiki juga cukup jelas. Karena open source, ia bisa terus dipakai dalam jangka panjang, dan karena berbasis web, ia bisa diakses dari mana saja
      Selain itu, computed view menggantikan file indeks materialized. Dalam pendekatan Karpathy, LLM harus terus menyinkronkan index.md setiap kali menambahkan catatan, dan hal seperti ini mudah menjadi stale setiap kali sesi berganti, yang justru sangat tidak dikuasai LLM
      Sebaliknya, view TiddlyWiki adalah ekspresi filter real-time, sehingga misalnya hasil seperti "tiddler bertag concept diurutkan berdasarkan rating" dihitung langsung saat render
      Frontmatter juga menjadi struktur yang bisa di-query. Obsidian menampilkan YAML frontmatter sebagai metadata berbentuk kotak di bagian atas catatan, sedangkan TiddlyWiki mengangkat field itu menjadi field tiddler kelas satu yang bisa langsung dipakai untuk filter, sortir, dan agregasi
      Dan LLM tidak hanya bisa menulis konten, tetapi juga applet kecil. Selain catatan Markdown, ia bisa menambahkan tiddler wikitext (.tid) untuk membuat live view interaktif seperti dashboard, alat penjelajah tag, indeks jurnal, atau glosarium
  • Area self building artefacts menarik, dan belakangan ini sedang tumbuh besar seiring LLM, terutama model coding, cepat sekali makin kuat di sini
    Saya juga baru-baru ini bereksperimen dengan proyek yang berfokus pada minim dependensi dan pengendalian agen secara lokal
    https://github.com/GistNoesis/Shoggoth.db/
    Untuk menjalankan tugas jangka panjang yang diberikan lewat prompt, sistem ini membuat dan merapikan database sqlite sendiri, dan memakai salinan Wikipedia lokal sebagai data sumber
    Saya juga hanya menaruh harness dan alat yang sangat minimal untuk bereksperimen dengan drift agen
    Menambahkan alat pemrosesan gambar juga cukup mudah. Gambar tinggal di-encode ke base64 lalu dikirim ke llama.cpp, dan detail implementasinya pun bisa asal divibecoding dengan LLM lokal
    Menurut saya ini alat yang cukup berguna secara umum
    Misalnya dulu saya punya skrip yang memakai Amazon Textract untuk mengekstrak nominal, tanggal, dan penjual dari faktur dan kuitansi dalam folder, lalu setelah itu angka-angkanya dicek manusia untuk membuat CSV yang akan diberikan ke akuntan
    Sekarang panggilan Amazon Textract itu bisa diganti dengan pemanggilan model llama.cpp dengan prompt yang tepat, sambil tetap mempertahankan alat faktur yang sudah ada dan sekaligus memungkinkan pemrosesan akuntansi yang jauh lebih kreatif
    Saya juga bereksperimen dengan variasi yang menggerakkan robot fisik dari rangkaian gambar kamera, dan untuk kasus sederhana memang benar-benar bergerak dan mencapai tujuan
    Hanya saja LLM yang saya pakai memang tidak pernah dilatih untuk mengemudikan robot, dan butuh 10 detik untuk memilih tindakan berikutnya sehingga tidak praktis. Kontroler konvensional non-deep-learning yang saya pakai saat ini menjalankan vision loop di 20Hz

  • Model LLM dan agen di atasnya bukan deterministik, melainkan probabilistik
    Mereka bisa berhasil melakukan sesuatu pada persentase tertentu, tetapi tidak selalu berhasil setiap kali
    Karena itu, makin lama agen mempertahankan satu tugas, makin besar pula peluang gagalnya. Agen jangka panjang seperti ini pada akhirnya akan gagal, dan di sepanjang prosesnya juga membakar biaya token yang sangat besar
    Salah satu hal yang dikuasai agen LLM adalah menulis ulang instruksinya sendiri
    Triknya adalah membatasi waktu dan langkah berpikir model thinking, lalu mengevaluasi, memperbarui, dan menjalankannya lagi
    Analogi sederhananya, anggap saja agen itu mudah jatuh. Jangan buat dia berlari terlalu lama sampai jatuh; dua kali 5 menit lebih baik daripada sekali 10 menit
    Dalam beberapa minggu, agen swa-rujuk seperti ini kemungkinan akan memenuhi bagian atas feed Twitter semua orang

    • Agen dan ML juga punya masalah terjebak di local maxima jika tidak ada umpan balik eksternal
      Jadi wiki seperti ini kemungkinan besar akan mencapai suatu keadaan lalu berhenti di sana