- DeepClaude mengganti hanya target panggilan API ke backend yang kompatibel dengan DeepSeek V4 Pro, OpenRouter, Fireworks AI, dan Anthropic, sambil mempertahankan loop alat, pengeditan file, bash, dan alur git dari Claude Code CLI
- Claude Code memiliki biaya bulanan $200 dan batas penggunaan, tetapi DeepSeek V4 Pro menonjolkan skor LiveCodeBench 96.4% dan harga token output $0.87/M
- Pembacaan·penulisan·pengeditan file, eksekusi Bash/PowerShell, pencarian Glob/Grep, loop alat otonom multilangkah, pembuatan subagen, pekerjaan git,
/init, dan thinking mode yang aktif secara default berfungsi
- Backend default adalah DeepSeek; OpenRouter ditawarkan dengan server AS dan latensi rendah, Fireworks AI untuk inferensi cepat, dan Anthropic sebagai opsi untuk memakai Claude Opus pada masalah yang sulit
- Harga per backend ditunjukkan sebagai DeepSeek dan OpenRouter input $0.44/M·output $0.87/M, Fireworks AI input $1.74/M·output $3.48/M, dan Anthropic input $3.00/M·output $15.00/M
- DeepClaude mengatur
ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL per sesi dan memulihkan pengaturan asli saat sesi berakhir
- Caching konteks otomatis DeepSeek menyimpan system prompt dan konteks file setelah permintaan pertama dengan biaya $0.004/M, sehingga menurunkan biaya loop agen pada putaran berulang
- Perbandingan penggunaan menunjukkan bahwa dibandingkan Anthropic Max $200/bulan, DeepClaude diperkirakan sekitar $20/bulan untuk penggunaan ringan, sekitar $50/bulan untuk penggunaan berat, dan sekitar $80/bulan termasuk loop otomatis
- Batasannya juga jelas: endpoint Anthropic milik DeepSeek tidak mendukung input gambar, Claude Code pada dasarnya mengirim alat secara berurutan, MCP server tools tidak didukung melalui lapisan kompatibilitas, dan
cache_control milik Anthropic diabaikan
- Mendukung live switching untuk mengganti backend tanpa restart selama sesi, dan proksi
localhost:3200 meneruskan /v1/messages ke backend aktif serta menyediakan endpoint kontrol /_proxy/mode, /_proxy/status, /_proxy/cost
- Di dalam Claude Code, backend dapat diganti dengan perintah slash seperti
/deepseek, /anthropic, /openrouter atau dengan deepclaude --switch ds, dan proksi juga menghitung penggunaan token serta penghematan dibanding Anthropic
- Dapat dijalankan sebagai profil terminal VS Code/Cursor, dan
--remote membuka sesi Claude Code di browser, tetapi bridge WebSocket menggunakan Anthropic sementara panggilan API model dikirim ke DeepSeek dan lainnya melalui proksi lokal
- Untuk kendali jarak jauh diperlukan
claude auth login, langganan claude.ai, dan Node.js 18+ untuk proksi, sedangkan lisensi proyek adalah MIT
1 komentar
Komentar Hacker News
Menjalankan Claude Code dengan API DeepSeek pada dasarnya bisa dilakukan dengan shell wrapper yang hanya menetapkan beberapa environment variable
Cukup set
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_MODEL, lalu jalankanclaude $@Hanya saja, sepertinya API DeepSeek tidak menyediakan opsi opt-out dari pelatihan, dan mungkin akan lebih baik jika tersedia di provider lain. OpenRouter saat ini tampaknya hanya bertindak sebagai proxy ke DeepSeek
Tetapi fitur-fitur ini terlalu tenggelam dalam README yang terasa seperti ditulis LLM, dan kalau melihat riwayatnya, fitur itu ditambahkan belakangan tanpa README disusun ulang
Penulisnya bahkan meng-commit rencana iklan media sosial yang tampak ingin efektif: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Tinggal jalankan seperti
aivo claude -m deepseek-v4-proSaya kurang paham apa arti pentingnya. DeepSeek sendiri sudah menjelaskan cara memakai API-nya di berbagai CLI termasuk Claude Code
https://api-docs.deepseek.com/quick_start/agent_integrations...
Tampaknya LLM yang menulis README tidak memperbarui deskripsi proyek umum agar menonjolkan fitur-fitur ini
Rencana promosi penulisnya juga ikut ter-commit: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Kalau mencari alternatif Claude Code, saya sarankan melihat pi.dev atau opencode dulu sebagai execution framework
Untuk model, OpenCode Go saat ini tampaknya paling efisien dari sisi biaya, dan bisa terhubung langsung ke OpenRouter atau DeepSeek. Secara pribadi saya rasa lebih baik beralih ke Kimi dan membeli langganan kimi.com
Di proyek sampingan pribadi saya, mouse.dev, saya sedang menggabungkan sebagian OpenCode, Claude Code, dan Hermes untuk membuat arsitektur cloud agent yang juga bekerja baik di mobile
Ternyata bot-nya menutup semua issue secara otomatis. Saya benar-benar kehabisan kata
Bahkan jika harga token sekitar $1 per 1 juta token, ternyata sangat mudah menghabiskan token senilai $200
Seberapa pun saya hitung, paket coding tetap lebih bernilai
Jika performa setingkat Sonnet sudah cukup, ini jelas terdengar seperti upgrade
Tapi menurut saya Sonnet terlalu sering salah, jadi mengoptimalkan biaya dengan model di level itu pada akhirnya tidak terlalu bernilai. Meski begitu, tetap bagus punya opsi
Kalau desain dipisah ke Opus dan implementasi ke DeepSeek, sepertinya biaya bisa cukup ditekan. Secara pribadi saya akan menghindari Anthropic sepenuhnya, tapi saya paham kenapa orang memakainya
Baik untuk perusahaan maupun karyawan, saya belum melihat alasan kuat untuk tidak memakai model terbaik yang tersedia saat ini dengan tingkat reasoning tertinggi atau kedua tertinggi. Memang tidak murah, tapi juga tidak semahal itu
Untuk membuat arsitektur yang baik, kita harus membaca banyak spesifikasi dan kode, sehingga token input-output jadi banyak, dan saat memperbaiki bug pun sama kalau sampai melibatkan log atau Datadog
Setelah arah sudah ketemu, patch biasanya sepele, dan kecuali untuk refactor atau pekerjaan perapian, uang yang dihemat dari model murah juga kecil
Pengujian makin lama makin rumit. Bahkan di opencode go saja sudah ada GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash
Sekarang saya harus menjalankan model-model ini sendiri dalam skala besar sambil menanggung bug-nya, dan saya tidak tahu apakah ada hal yang saya lewatkan di sini. Saya jadi penasaran apa sebenarnya kegunaan nyata model yang lebih murah
Claude.mdyang solid, output ditinjau secara berkala, dan gate CI dasar dipakai untuk memaksa praktik kode yang baik, saya hampir tidak pernah perlu pindah ke OpusSaya jadi bertanya-tanya apakah ini cuma pekerjaan mengatur dua environment variable yang diminta ke AI dalam sekali tembak
Saya penasaran apakah Claude Code memang execution framework coding terbaik. Apakah ada pihak yang menjalankan evaluasi soal ini?
Sebaliknya, Claude Code adalah alat yang paling banyak disubsidi, baik lewat langganan Max untuk konsumen maupun diskon token untuk perusahaan. Optimisasi biaya seperti token caching dan pengurangan jumlah reasoning juga sangat agresif, dan konsekuensinya kualitas turun
Dari hasil memakai DeepSeek V4 di berbagai CLI, Langcli paling cocok buat saya. Untuk pekerjaan pemrograman, cache hit rate-nya di atas 95%
Di dalam konteks yang sama, saya bisa berpindah secara dinamis dan mulus antara DeepSeek V4 Flash, V4 Pro, dan model-model arus utama lain, serta tetap 100% kompatibel dengan Claude Code
Saya menghabiskan setengah hari untuk membuat CUDA dan LLAMA berjalan di 5070TI
Saya sempat bisa mencobanya dengan mode agent Roo, menyuruhnya menulis rencana lalu berhenti, tapi kalau nanti ada waktu saya akan lanjut mencoba
DeepSeek tampaknya kecil kemungkinan tiba-tiba dicabut karena kalau punya cukup uang orang bisa self-host, tetapi saya tetap lebih menantikan solusi lokal
Biasanya yang dibutuhkan itu kerja kasar sederhana, bukan memecahkan masalah sulit
Jelas terasa seperti ditulis bersama lewat vibe coding, dan harganya juga tidak masuk akal