1 poin oleh GN⁺ 2 jam lalu | 1 komentar | Bagikan ke WhatsApp
  • DeepClaude mengganti hanya target panggilan API ke backend yang kompatibel dengan DeepSeek V4 Pro, OpenRouter, Fireworks AI, dan Anthropic, sambil mempertahankan loop alat, pengeditan file, bash, dan alur git dari Claude Code CLI
  • Claude Code memiliki biaya bulanan $200 dan batas penggunaan, tetapi DeepSeek V4 Pro menonjolkan skor LiveCodeBench 96.4% dan harga token output $0.87/M
  • Pembacaan·penulisan·pengeditan file, eksekusi Bash/PowerShell, pencarian Glob/Grep, loop alat otonom multilangkah, pembuatan subagen, pekerjaan git, /init, dan thinking mode yang aktif secara default berfungsi
  • Backend default adalah DeepSeek; OpenRouter ditawarkan dengan server AS dan latensi rendah, Fireworks AI untuk inferensi cepat, dan Anthropic sebagai opsi untuk memakai Claude Opus pada masalah yang sulit
  • Harga per backend ditunjukkan sebagai DeepSeek dan OpenRouter input $0.44/M·output $0.87/M, Fireworks AI input $1.74/M·output $3.48/M, dan Anthropic input $3.00/M·output $15.00/M
  • DeepClaude mengatur ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL per sesi dan memulihkan pengaturan asli saat sesi berakhir
  • Caching konteks otomatis DeepSeek menyimpan system prompt dan konteks file setelah permintaan pertama dengan biaya $0.004/M, sehingga menurunkan biaya loop agen pada putaran berulang
  • Perbandingan penggunaan menunjukkan bahwa dibandingkan Anthropic Max $200/bulan, DeepClaude diperkirakan sekitar $20/bulan untuk penggunaan ringan, sekitar $50/bulan untuk penggunaan berat, dan sekitar $80/bulan termasuk loop otomatis
  • Batasannya juga jelas: endpoint Anthropic milik DeepSeek tidak mendukung input gambar, Claude Code pada dasarnya mengirim alat secara berurutan, MCP server tools tidak didukung melalui lapisan kompatibilitas, dan cache_control milik Anthropic diabaikan
  • Mendukung live switching untuk mengganti backend tanpa restart selama sesi, dan proksi localhost:3200 meneruskan /v1/messages ke backend aktif serta menyediakan endpoint kontrol /_proxy/mode, /_proxy/status, /_proxy/cost
  • Di dalam Claude Code, backend dapat diganti dengan perintah slash seperti /deepseek, /anthropic, /openrouter atau dengan deepclaude --switch ds, dan proksi juga menghitung penggunaan token serta penghematan dibanding Anthropic
  • Dapat dijalankan sebagai profil terminal VS Code/Cursor, dan --remote membuka sesi Claude Code di browser, tetapi bridge WebSocket menggunakan Anthropic sementara panggilan API model dikirim ke DeepSeek dan lainnya melalui proksi lokal
  • Untuk kendali jarak jauh diperlukan claude auth login, langganan claude.ai, dan Node.js 18+ untuk proksi, sedangkan lisensi proyek adalah MIT

1 komentar

 
GN⁺ 2 jam lalu
Komentar Hacker News
  • Menjalankan Claude Code dengan API DeepSeek pada dasarnya bisa dilakukan dengan shell wrapper yang hanya menetapkan beberapa environment variable
    Cukup set ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_MODEL, lalu jalankan claude $@

    • Untuk proyek yang tidak rahasia, saya sudah memakainya seperti ini dengan DeepSeek v4 selama sekitar seminggu, dan karena saya tidak memberinya tugas yang terlalu berat, saya hampir tidak merasakan perbedaannya
      Hanya saja, sepertinya API DeepSeek tidak menyediakan opsi opt-out dari pelatihan, dan mungkin akan lebih baik jika tersedia di provider lain. OpenRouter saat ini tampaknya hanya bertindak sebagai proxy ke DeepSeek
    • Rasanya proyek yang mengejek Claude bisa naik ke peringkat 1 Hacker News bahkan kalau kodenya cuma empat baris
    • Bagian yang lebih menarik dari deepclaude adalah proxy lokal yang bisa mengganti model di tengah sesi dan fitur pelacakan biaya terintegrasi
      Tetapi fitur-fitur ini terlalu tenggelam dalam README yang terasa seperti ditulis LLM, dan kalau melihat riwayatnya, fitur itu ditambahkan belakangan tanpa README disusun ulang
      Penulisnya bahkan meng-commit rencana iklan media sosial yang tampak ingin efektif: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Karena itu saya membuat https://getaivo.dev, yang memungkinkan model dipakai langsung dari coding agent
      Tinggal jalankan seperti aivo claude -m deepseek-v4-pro
    • Pada dasarnya pendekatan ini memungkinkan model apa pun dipakai dengan Claude Code, termasuk model lokal
  • Saya kurang paham apa arti pentingnya. DeepSeek sendiri sudah menjelaskan cara memakai API-nya di berbagai CLI termasuk Claude Code
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • README-nya benar-benar mengubur fitur yang sebenarnya tidak sepele: menjalankan proxy pergantian model di tengah sesi, dan melacak biaya secara terpadu saat memakai Anthropic bersama model lain
      Tampaknya LLM yang menulis README tidak memperbarui deskripsi proyek umum agar menonjolkan fitur-fitur ini
      Rencana promosi penulisnya juga ikut ter-commit: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Mungkin memang tidak terlalu berarti. Kesan saya seperti seseorang tidak benar-benar paham atau meneliti dulu, lalu langsung membuat ide pertama yang terpikir dan mempostingnya ke halaman depan HN serta semua media sosial
    • Terasa seperti alat dari vibe coder untuk sesama vibe coder
    • Sejauh yang saya lihat, format tool call-nya tidak persis sama. Jadi untuk menempelkan AI apa pun ke Claude Code, sepertinya perlu konversi format
    • Saya penasaran seberapa baik ini bekerja di praktik. Saya pernah memakai DeepSeek di Hermes dan Opencode, dan walau sudah diarahkan keras lewat system prompt, kemampuannya menggunakan tool bawaan seperti alat memori holografik Hermes sangat buruk
  • Kalau mencari alternatif Claude Code, saya sarankan melihat pi.dev atau opencode dulu sebagai execution framework
    Untuk model, OpenCode Go saat ini tampaknya paling efisien dari sisi biaya, dan bisa terhubung langsung ke OpenRouter atau DeepSeek. Secara pribadi saya rasa lebih baik beralih ke Kimi dan membeli langganan kimi.com

    • Saya juga mau melempar kandidat berupa execution framework saya sendiri: https://codeberg.org/mlow/lmcli
    • pi.dev dan opencode bagus juga, tetapi plugin dan skill yang ingin saya pakai paling banyak ada di Claude Code
    • Setuju. OpenCode adalah fondasi yang kokoh, dan dengan beberapa penyesuaian bisa menjadi execution framework yang sangat efektif
      Di proyek sampingan pribadi saya, mouse.dev, saya sedang menggabungkan sebagian OpenCode, Claude Code, dan Hermes untuk membuat arsitektur cloud agent yang juga bekerja baik di mobile
    • Saya sempat melihat pi.dev dan curiga karena cuma ada 7 issue terbuka di GitHub
      Ternyata bot-nya menutup semua issue secara otomatis. Saya benar-benar kehabisan kata
    • Ollama Cloud juga sangat efisien dari sisi biaya. Saya memakainya sebulan dan hanya sekali kena batas 5 jam, itu pun saat menjalankan 8 agent secara bersamaan selama 2 jam
  • Bahkan jika harga token sekitar $1 per 1 juta token, ternyata sangat mudah menghabiskan token senilai $200
    Seberapa pun saya hitung, paket coding tetap lebih bernilai

  • Jika performa setingkat Sonnet sudah cukup, ini jelas terdengar seperti upgrade
    Tapi menurut saya Sonnet terlalu sering salah, jadi mengoptimalkan biaya dengan model di level itu pada akhirnya tidak terlalu bernilai. Meski begitu, tetap bagus punya opsi

    • Banyak orang mendapatkan hasil bagus dengan memakai Opus untuk desain dan qwen3.6 yang di-host lokal untuk implementasi
      Kalau desain dipisah ke Opus dan implementasi ke DeepSeek, sepertinya biaya bisa cukup ditekan. Secara pribadi saya akan menghindari Anthropic sepenuhnya, tapi saya paham kenapa orang memakainya
    • Kita belum sampai pada titik jenuh di mana kecerdasan semua model frontier kurang lebih setara sehingga orang bisa memilih berdasarkan faktor lain seperti kecepatan atau jendela konteks efektif
      Baik untuk perusahaan maupun karyawan, saya belum melihat alasan kuat untuk tidak memakai model terbaik yang tersedia saat ini dengan tingkat reasoning tertinggi atau kedua tertinggi. Memang tidak murah, tapi juga tidak semahal itu
    • Intinya bukan butuh model yang bagus, melainkan model yang paling bagus
      Untuk membuat arsitektur yang baik, kita harus membaca banyak spesifikasi dan kode, sehingga token input-output jadi banyak, dan saat memperbaiki bug pun sama kalau sampai melibatkan log atau Datadog
      Setelah arah sudah ketemu, patch biasanya sepele, dan kecuali untuk refactor atau pekerjaan perapian, uang yang dihemat dari model murah juga kecil
      Pengujian makin lama makin rumit. Bahkan di opencode go saja sudah ada GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash
      Sekarang saya harus menjalankan model-model ini sendiri dalam skala besar sambil menanggung bug-nya, dan saya tidak tahu apakah ada hal yang saya lewatkan di sini. Saya jadi penasaran apa sebenarnya kegunaan nyata model yang lebih murah
    • Saya terus mempelajari ulang pelajaran ini. Awalnya lancar dengan model yang lebih rendah, lalu saya melempar masalah yang terlalu rumit, mencoba beberapa model, akhirnya menyerah, lalu memanggil Opus 4.6 untuk membereskan semuanya
    • Saya sama sekali tidak merasakan itu di Sonnet. Kalau ada Claude.md yang solid, output ditinjau secara berkala, dan gate CI dasar dipakai untuk memaksa praktik kode yang baik, saya hampir tidak pernah perlu pindah ke Opus
  • Saya jadi bertanya-tanya apakah ini cuma pekerjaan mengatur dua environment variable yang diminta ke AI dalam sekali tembak

  • Saya penasaran apakah Claude Code memang execution framework coding terbaik. Apakah ada pihak yang menjalankan evaluasi soal ini?

    • Dari pengalaman pribadi, tidak. Dengan model Opus yang sama pun, execution framework pihak ketiga seperti Factory Droid atau Amp bekerja lebih baik
      Sebaliknya, Claude Code adalah alat yang paling banyak disubsidi, baik lewat langganan Max untuk konsumen maupun diskon token untuk perusahaan. Optimisasi biaya seperti token caching dan pengurangan jumlah reasoning juga sangat agresif, dan konsekuensinya kualitas turun
  • Dari hasil memakai DeepSeek V4 di berbagai CLI, Langcli paling cocok buat saya. Untuk pekerjaan pemrograman, cache hit rate-nya di atas 95%
    Di dalam konteks yang sama, saya bisa berpindah secara dinamis dan mulus antara DeepSeek V4 Flash, V4 Pro, dan model-model arus utama lain, serta tetap 100% kompatibel dengan Claude Code

  • Saya menghabiskan setengah hari untuk membuat CUDA dan LLAMA berjalan di 5070TI
    Saya sempat bisa mencobanya dengan mode agent Roo, menyuruhnya menulis rencana lalu berhenti, tapi kalau nanti ada waktu saya akan lanjut mencoba
    DeepSeek tampaknya kecil kemungkinan tiba-tiba dicabut karena kalau punya cukup uang orang bisa self-host, tetapi saya tetap lebih menantikan solusi lokal
    Biasanya yang dibutuhkan itu kerja kasar sederhana, bukan memecahkan masalah sulit

  • Jelas terasa seperti ditulis bersama lewat vibe coding, dan harganya juga tidak masuk akal

    • Ke depannya, rasanya akan sangat sulit menemukan judul yang tidak di-vibe-code
    • Ini vibe coding yang kasar. Mesin itu mudah dipakai untuk memeriksa detail, jadi seharusnya dipakai untuk hal seperti itu