15 poin oleh GN⁺ 2026-02-02 | 2 komentar | Bagikan ke WhatsApp
  • pi-coding-agent adalah framework agen coding yang dirancang dengan meminimalkan fitur kompleks agar pengguna dapat sepenuhnya menguasai kontrol konteks dan transparansi
  • Komponen intinya terdiri dari empat bagian: pi-ai, pi-agent-core, pi-tui, dan pi-coding-agent, yang masing-masing menangani integrasi API LLM, loop agen, UI terminal, dan integrasi CLI
  • Dengan menjaga system prompt dan set alat tetap di bawah 1000 token, serta hanya menyediakan empat alat: read/write/edit/bash, proyek ini mengejar penyederhanaan yang ekstrem
  • Batasan keamanan, sub-agent, mode perencanaan, dan dukungan MCP semuanya ditiadakan, dan sebagai gantinya fokus diberikan pada observabilitas penuh dan kendali penuh
  • Melalui hasil benchmark dan pengalaman penggunaan nyata, ditunjukkan bahwa desain yang sederhana dan transparan bisa cukup kompetitif dibanding agen yang kompleks

pi-ai dan pi-agent-core

  • pi-ai menyediakan API integrasi penyedia LLM untuk berbagai vendor seperti Anthropic, OpenAI, Google, xAI, dan Groq
    • Mencakup streaming, pemanggilan alat, dukungan penalaran (trace), pelacakan token dan biaya, serta kompatibilitas browser
    • Hanya dengan empat API utama (OpenAI Completions/Responses, Anthropic Messages, Google Generative AI), komunikasi dengan sebagian besar model dapat dilakukan
  • Perbedaan API antar penyedia ditangani dalam satu lapisan terpadu
    • Contoh: perbedaan nama field max_tokens, lokasi field reasoning, tidak didukungnya peran developer, dan lain-lain
    • Karena tiap penyedia melaporkan token dengan cara berbeda, perhitungan biaya yang akurat tidak memungkinkan, sehingga pi-ai melacaknya dengan pendekatan best-effort
  • Fitur context handoff memungkinkan model atau penyedia diganti di tengah sesi
    • Contoh: saat berpindah dari Anthropic → OpenAI → Google, isi penalaran tetap dipertahankan dengan dikonversi ke tag ``
  • Mendukung definisi model yang type-safe melalui registry model
    • Dengan mem-parsing data dari OpenRouter dan models.dev, informasi biaya dan fitur per model dihasilkan secara otomatis
  • Mendukung penuh penghentian permintaan (abort) dan pengembalian hasil parsial
    • Saat streaming dihentikan melalui AbortController, hasil sementara tetap bisa langsung dimanfaatkan
  • Mengadopsi struktur pemisahan hasil alat
    • Teks untuk LLM dan data untuk tampilan UI dikembalikan secara terpisah, dengan validasi argumen menggunakan TypeBox/AJV
    • Ke depannya akan ditambahkan fitur streaming hasil alat
  • Loop agen secara otomatis mengulangi pemrosesan pesan, eksekusi alat, dan umpan balik hasil
    • Struktur berbasis event memudahkan implementasi UI yang responsif
    • Parameter kontrol yang tidak perlu, seperti langkah maksimum, dihapus demi kesederhanaan

pi-tui

  • pi-tui adalah framework UI terminal berbasis Node.js yang mendukung pembaruan real-time dengan flicker seminimal mungkin
    • Differential rendering membuat hanya baris yang berubah yang diperbarui
    • Synchronized output sequence (CSI ?2026h/l) digunakan untuk meminimalkan flicker
  • Dari dua pendekatan TUI, yang dipilih adalah metode output bergaya CLI yang mempertahankan buffer scrollback
    • Fitur terminal bawaan seperti scroll alami dan pencarian tetap bisa dimanfaatkan apa adanya
    • Strukturnya mirip dengan Claude Code, Codex, dan Droid
  • Menggunakan retained mode UI
    • Setiap komponen menyimpan cache hasil render-nya sendiri dan hanya menggambar ulang saat ada perubahan
    • Pembaruan efisien dapat dilakukan tanpa me-render ulang seluruh layar
  • Performa dan penggunaan memori sangat kecil, hanya di kisaran ratusan KB, sehingga sesi besar pun dapat ditangani dengan lancar

pi-coding-agent

  • pi-coding-agent adalah agen coding berbasis CLI dengan fitur-fitur berikut
    • Mendukung Windows/Linux/macOS, manajemen sesi (resume dan branching), pergantian model, serta pemuatan AGENTS.md per proyek
    • Mendukung autentikasi OAuth, perubahan tema secara real-time, ekspor sesi ke HTML, dan mode headless (JSON/RPC)
  • System prompt dibuat ringkas, di bawah 1000 token
    • Hanya mendefinisikan empat alat: read/write/edit/bash
    • Penjelasan yang tidak perlu dan aturan kompleks dihapus, sementara pengguna bebas memperluasnya melalui AGENTS.md
  • Set alat dibatasi pada 4 alat minimum
    • Hanya read, write, edit, dan bash yang digunakan, dan itu sudah cukup untuk sebagian besar pekerjaan coding
    • Alat tambahan bisa diaktifkan secara opsional, misalnya grep, find, dan ls
  • Mode YOLO diterapkan secara default
    • Tidak ada batasan untuk akses ke seluruh file system maupun eksekusi perintah
    • Prompt keamanan dan prosedur validasi awal dihapus; sebagai gantinya penggunaan lingkungan container direkomendasikan
  • To-do bawaan, mode Plan, MCP, background bash, dan sub-agent semuanya dihapus
    • To-do/Plan cukup digantikan oleh pengelolaan berbasis file (TODO.md, PLAN.md)
    • MCP dikesampingkan karena membuang token dan menambah kompleksitas, dan diganti dengan pendekatan CLI+README
    • Untuk background bash, penggunaan tmux direkomendasikan
    • Sub-agent dinonaktifkan karena kurang visibilitas; bila perlu, agen dapat memanggil dirinya sendiri lewat bash
  • Menekankan observabilitas
    • Semua perintah, akses file, dan output ditampilkan secara transparan
    • Ini berlawanan dengan struktur “black box” pada agen lain seperti Claude Code

Benchmarks

  • Diuji di Terminal-Bench 2.0 bersama model Claude Opus 4.5
    • Menunjukkan performa yang kompetitif jika dibandingkan dengan Codex, Cursor, Windsurf, dan lainnya
    • File hasil (results.json) dikirim ke repositori publik
  • Agen sederhana seperti Terminus 2 juga menunjukkan performa serupa, yang membuktikan validitas pendekatan minimalis

Kesimpulan

  • pi adalah agen coding yang memprioritaskan kontrol konteks, kesederhanaan, dan transparansi dibanding fitur yang kompleks
  • Baik dalam penggunaan nyata maupun benchmark, ia menunjukkan efisiensi yang setara dengan agen besar
  • Fitur yang rencananya akan ditambahkan ke depan hanya sekitar pemadatan konteks (compaction) dan streaming hasil alat
  • Proyek ini tersedia sebagai open source, dan kebebasan untuk fork serta memperluasnya dijamin
  • Pelajaran utamanya adalah: kesederhanaan adalah kendali, dan kendali adalah produktivitas

2 komentar

 
GN⁺ 2026-02-02
Komentar Hacker News
  • Sepertinya ini proyek yang sangat keren dan dibuat dengan penuh pertimbangan
    Saya juga sangat setuju soal pentingnya context engineering dan struktur percakapan berbasis pohon
    Alur percakapan linear yang ada selama ini terlalu membatasi, jadi terasa tidak nyaman saat berkolaborasi dengan LLM untuk riset atau pengembangan ide
    Saya juga pernah membuat alat pribadi dengan filosofi serupa, yaitu membangun konteks dengan baik lalu menggunakannya kembali, atau menjalankan side quest dan hanya membawa kembali hasil yang bagus
    Versi yang kamu buat adalah implementasi yang jauh lebih bernilai. Senang jadi tahu tentang Pi berkat ini

    • Saya juga pernah mencoba pendekatan serupa. Saya mengelola file Markdown bernama MIND_MAP.md dalam bentuk graf sambil mencatat kutipan secara inline
      Pendekatan ini mempertahankan memori antar-sesi dan mengurangi pemborosan konteks saat membuat sub-agent
      Lihat contoh kode saya
  • Rasanya hubungan OpenClaw dan Pi-agent mirip dengan hubungan ollama/llama-cpp
    Yang pertama mendapat banyak perhatian, tetapi sebenarnya yang kedua lebih mengesankan
    Claude Code saat ini masih oke berkat manfaat langganannya, tetapi ketika pasar sudah matang dan harganya mendekati tarif API, pengalaman premium dengan pembayaran per token tampaknya akan menjadi pilihan yang lebih baik
    Pada akhirnya, saya rasa framework agent yang bisa dikustomisasi akan lebih unggul daripada aplikasi tertutup

    • Saya justru melihat harga API akan turun lebih jauh, dan manfaat langganan Claude Code kemungkinan akan makin besar
      Struktur biaya inferensinya ternyata lebih efisien dari yang diduga, dan dana R&D juga cukup besar
      Semua alat terus membaik, dan produk pesaing juga tidak sempurna
    • Pi juga bisa dihubungkan ke langganan. OpenAI mengizinkan penggunaan langganan GPT di Pi
      Secara pribadi saya senang proyek Peter mendapat perhatian
      PR di sisi OpenClaw masih sangat banyak, tetapi Pi hanya sekitar 1/100-nya sehingga jauh lebih mudah dikelola
    • Ini hampir sama persis dengan hubungan ChatGPT dan GPT-3
      OpenAI juga pernah berkata, “tidak tahu kenapa ChatGPT begitu populer, padahal GPT sudah tersedia lewat API”
    • Bisa jadi pada akhirnya akan mengalami enshittification seperti ollama juga
    • Nama “pi” agak membingungkan. Sudah ada “Pi” lain yang terkenal, jadi saya penasaran kenapa nama itu yang dipakai
  • Mengejutkan bahwa Google sampai sekarang masih belum mendukung tool call streaming
    Mereka bahkan tidak menyediakan tokenizer lokal, sehingga AI Studio harus menghitung token lewat panggilan API setiap saat, sebuah struktur yang tidak efisien

    • AI Studio punya bug yang membuatnya terus menghitung token bahkan saat tidak sedang mengetik
      Penggunaan CPU naik sampai 100%, rasanya laptop saya menghabiskan daya lebih banyak daripada klaster TPU
    • Sebenarnya Anthropic juga tidak menyediakan tokenizer
  • Sebagian besar langkah keamanan di coding agent lain pada dasarnya hanya security theater
    Codex menjalankan perintah di dalam sandbox OS (misalnya macOS Seatbelt), jadi tidak sepenuhnya tidak berguna

    • Saya rasa semua tool call selain baca saja harus melalui proses persetujuan manual
      Walaupun merepotkan, itu tetap lebih baik daripada memulihkan perintah yang salah
    • Codex saya akan memodifikasi file dengan Python jika diminta menambal SDK di luar sandbox
    • Menjalankan agent di luar container itu berbahaya. Ini hal paling dasar
    • Saya menghubungkan Codex ke repo GitHub agar otomatis membuat PR
      Tidak menyentuh DB, hanya mengubah UI dan kode middle layer
    • Saya penasaran apakah Codex menonaktifkan sandbox secara sembarangan seperti Claude Code
    • Mode YOLO seharusnya hanya dipakai di dalam container. Aksesnya harus dibatasi hanya ke resource yang diperlukan
  • Saya sudah melihat beberapa power user berpindah ke Pi, dan saya juga sedang mempertimbangkannya
    Kelebihan Pi adalah kontrol penuh atas konteks dan struktur tool yang dapat diperluas
    Ada berbagai contoh seperti system prompt, perluasan todo, adaptor MCP, dan sebagainya
    Jika memahami batas performa konteks atau masalah seperti context rot dan contextual drift, nilai Pi jadi jelas
    Kumpulan tautan terkait

    • Pi adalah bagian yang paling layak mendapat perhatian di moltXYZ
      Armin jelas berada jauh di depan zamannya
      Claude Code masih dangkal dalam hook dan pengelolaan konteks
  • Saya masih memakai Cursor
    Saya sempat ingin pindah ke Claude Code, tetapi pada codebase kecil saya, Cursor jauh lebih cepat
    Namun UI diff-review-nya tidak terintegrasi dengan Git, jadi terasa tidak nyaman
    Sulit membedakan perubahan yang dibuat AI dan yang saya buat sendiri, dan saya merasa review terintegrasi Git jauh lebih penting

    • Kekuatan Cursor adalah feedback loop yang pendek
      Claude Code terasa seperti menyerahkan hasil begitu saja lalu berharap semuanya benar, dan itu membuat tidak tenang
      Kebebasan untuk mengganti model adalah hal yang penting. Performa model berbeda tergantung bahasa dan jenis tugas
    • Jika memasang ekstensi Claude Code untuk VS Code, Anda bisa menikmati eksplorasi codebase skala besar sekaligus integrasi CC
    • Claude Code pada dasarnya tidak punya indeks proyek, jadi ia menjelajahi file satu per satu
      Saya membuat hook yang memasukkan daftar file ke konteks saat mulai untuk meningkatkan kecepatan
      Saya juga membuat tool kustom yang bisa mengedit banyak file sekaligus dan hasilnya sekitar 3x lebih cepat, tetapi saya menonaktifkannya karena beberapa kasus tepi
    • Saya juga pengembang solo yang bootstrap, dan memanfaatkan Claude untuk mengotomatiskan tugas-tugas kecil
      Misalnya otomatisasi pengujian frontend atau mengubah landing page
      Fitur utama saya kelola dalam feedback loop yang rapat lewat instance Claude yang terpisah
    • Cursor juga sedang membaik. Sebentar lagi akan ada fitur pelacakan blame untuk baris yang ditulis AI, sehingga bisa diketahui model mana yang menulis apa dengan prompt seperti apa
  • Tulisan tentang arsitektur agent minimalis sangat mengesankan
    Saya suka filosofi “jangan buat jika memang tidak diperlukan”
    Saya menggunakan OpenClaw untuk mengelola beberapa workflow secara paralel — dukungan pelanggan, pemantauan deployment, code review, dan lain-lain
    Intinya adalah context engineering
    Model workspace-first OpenClaw mempertahankan pembelajaran antar-sesi melalui AGENTS.md, TOOLS.md, dan direktori memory/
    Kita bisa mengamati proses agent belajar sendiri lewat log
    Saya suka pendekatan yang mengakui model ancaman yang realistis daripada bermain security theater
    Saya juga setuju bahwa memiliki beberapa agent spesialis secara paralel lebih baik daripada satu agent serbaguna
    Akan menarik jika Pi dan OpenClaw dibandingkan di Terminal-Bench

  • Tulisan tentang mengapa Armin Ronacher memakai Pi itu bagus
    Dari postingan Armin saya baru tahu bahwa Pi adalah harness agent untuk OpenClaw

  • Pi memiliki struktur berbasis JavaScript, jadi sangat cocok dengan arsitektur sandbox browser
    Saya rasa ini sesuai dengan arah masa depan AI agent
    Namun saya berharap penulisnya lebih fleksibel terhadap vendor extensions
    Diskusi terkait

    • Ungkapan “standarkan irisan, dan ekspos gabungannya” terasa sangat berkesan
  • Saya masih belum memakai mode YOLO
    Sepertinya butuh 6 bulan lagi sampai tool-nya benar-benar matang
    Agent hampir tidak pernah perlu menjalankan perintah sembarangan
    Cukup jika lint, pencarian, pengeditan, dan akses web diintegrasikan ke sistem izin
    Runtime dengan sandboxing dan kontrol izin seperti Deno atau Workerd bisa menjadi garis pertahanan pertama
    Karena itu saya sulit memahami kenapa Anthropic memilih Bun — arsitektur keamanannya nyaris tidak ada