- Berjalan dengan format kompatibel OpenAI/Anthropic, sehingga cukup mengubah
base_url pada pengaturan SDK untuk mengakses API DeepSeek dengan cara yang sama
- Opsi model default yang terlihat adalah
deepseek-v4-flash dan deepseek-v4-pro, sementara deepseek-chat dan deepseek-reasoner dijadwalkan deprecated pada 2026/07/24
- Untuk menjaga kompatibilitas,
deepseek-chat dipetakan ke mode non-thinking dari deepseek-v4-flash, sedangkan deepseek-reasoner dipetakan ke mode thinking
- Chat API dipanggil melalui endpoint
https://api.deepseek.com/chat/completions dengan header Authorization: Bearer ${DEEPSEEK_API_KEY} dan body JSON; contohnya menggunakan deepseek-v4-pro, thinking, reasoning_effort="high", stream=false
- Baik Python maupun Node.js menyediakan contoh pemanggilan dengan OpenAI SDK; respons dibaca dari
choices[0].message.content, dan jika stream diubah menjadi true maka akan menerima respons streaming
Memulai pemanggilan API
- DeepSeek API menggunakan format kompatibel OpenAI/Anthropic, sehingga cukup mengubah pengaturan untuk mengaksesnya melalui OpenAI atau Anthropic SDK maupun perangkat lunak yang kompatibel dengan API tersebut
- Model yang tersedia ditampilkan sebagai
deepseek-v4-flash, deepseek-v4-pro, deepseek-chat, dan deepseek-reasoner
deepseek-chat dan deepseek-reasoner dijadwalkan deprecated pada 2026/07/24
- Untuk menjaga kompatibilitas,
deepseek-chat dipetakan ke mode non-thinking dari deepseek-v4-flash
deepseek-reasoner dipetakan ke mode thinking dari deepseek-v4-flash
Memanggil Chat API
- Setelah mendapatkan API key, model DeepSeek dapat diakses dengan contoh format OpenAI API
- Contohnya adalah pemanggilan non-stream; jika nilai
stream diubah menjadi true, respons streaming dapat diterima
- Contoh format Anthropic API dapat dilihat di Anthropic API
- Contoh
curl mengirim permintaan ke https://api.deepseek.com/chat/completions dengan header Authorization: Bearer ${DEEPSEEK_API_KEY} dan body JSON
- Model ditetapkan sebagai
deepseek-v4-pro
messages berisi system message "You are a helpful assistant." dan user message "Hello!"
thinking diatur ke {"type": "enabled"}
reasoning_effort diatur ke "high"
stream diatur ke false
- Contoh Python dijalankan setelah terlebih dahulu memasang OpenAI SDK
- Perintah instalasinya adalah
pip3 install openai
- Pada klien
OpenAI, digunakan api_key=os.environ.get('DEEPSEEK_API_KEY') dan base_url="https://api.deepseek.com"
- Pada pemanggilan
client.chat.completions.create, model diatur ke deepseek-v4-pro, stream=False, reasoning_effort="high"
extra_body={"thinking": {"type": "enabled"}} juga dikirimkan
- Respons ditampilkan melalui
response.choices[0].message.content
- Contoh Node.js juga dijalankan setelah terlebih dahulu memasang OpenAI SDK
- Perintah instalasinya adalah
npm install openai
- Instance
OpenAI menggunakan baseURL: 'https://api.deepseek.com' dan apiKey: process.env.DEEPSEEK_API_KEY
- Pada pemanggilan
openai.chat.completions.create, diatur messages, model: "deepseek-v4-pro", thinking: {"type": "enabled"}, reasoning_effort: "high", stream: false
- Hasilnya ditampilkan melalui
completion.choices[0].message.content
1 komentar
Komentar Hacker News
Untuk model besar seperti v4 pro, biayanya sekitar $4 per 1 juta token output, jadi saya tidak yakin klaim bahwa "lab frontier menjalankannya dengan subsidi inferensi yang gila-gilaan" itu benar
Model langganan pun tampaknya sudah cukup menguntungkan, belum lagi harga API
Input $1.74/M, output $3.48/M menurut OpenRouter
Katanya dalam siaran pers disebutkan bahwa ketika kartu komputasi Ascend 950 keluar pada paruh kedua tahun ini, harga Pro akan turun besar
Meski begitu, belakangan estimasi biaya itu juga cenderung naik lebih tinggi dari perkiraan
Layanan berlangganan tampaknya sudah untung, dan narasi soal subsidi pada akhirnya terlihat seperti logika untuk mengambil margin lebih tinggi dari API pelanggan enterprise
Biaya listrik di Tiongkok juga lebih murah
Agak menghangatkan hati bahwa dokumentasi pengembang keluar lebih dulu daripada siaran pers yang mencolok
Setelah diperbaiki, sepertinya ungkapan "open source" sudah dihilangkan dari komentar teratas
Sudah muncul di OpenRouter
Pro: input $1.74/m, output $3.48/m, dan Flash: input $0.14/m, output $0.28/m
Di sini muncul Api Error
Semua model lain berjalan normal
https://openrouter.ai/deepseek/deepseek-v4-pro
https://openrouter.ai/deepseek/deepseek-v4-flash
Menyenangkan melihat open source sungguhan datang dari Tiongkok
Saya tahu mungkin ada motif tersembunyi, tapi tetap saja terasa menarik
Motif tersembunyi Tiongkok itu asumsi, sementara pihak AS justru terbuka menunjukkannya
http://try.works/why-chinese-ai-labs-went-open-and-will-remain-open
Mereka mengunggah 1.6T Pro base model ke Hugging Face
Ini pertama kalinya saya melihat notasi model skala T di sini
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
Modelnya dirilis dan cukup mengesankan
Performanya kelas frontier, tetapi biayanya jauh lebih rendah, dan rasanya lebih baik daripada Opus 4.6
Pengguna Opus akan tetap percaya itu yang terbaik, sedangkan yang bukan pengguna memang tidak menginginkan biaya, lock-in, dan batasannya
Saya sendiri masih memakai model termurah dan tercepat yang bisa menyelesaikan pekerjaan, dan saat ini peran itu diisi MiniMax M2.5
Kadang saya mencoba model terbaru yang lebih mahal, tetapi hasilnya mirip, jadi saya juga bertanya-tanya apakah ada hype berlebihan di seluruh industri AI yang membuat kemajuannya terlihat hanya di benchmark
Saya ikut hackathon Anthropic Opus 4.7 sepanjang minggu ini dan banyak memakai 4.7; meski token yang dipakai jauh lebih banyak daripada 4.6, hasilnya cukup mengesankan
Ingin tahu apakah sudah dicoba untuk coding nyata dengan agent harness
Kalau kemampuan coding-nya lebih baik daripada Claude Code + Opus 4.6, saya akan langsung pindah
Setiap hari ada posting rilis yang bilang lebih baik daripada Opus 4.6, padahal DeepSeek sendiri pun tidak mengklaim itu jika thinking ikut dihitung
Dsv3 bukan model yang cuma menggembungkan benchmark, dan pada tugas di luar benchmark pun cukup konsisten; memang belum SoTA, tetapi tetap bagus
Model kali ini terlihat mirip
Levelnya tepat di bawah performa terbaik, tetapi selisihnya tidak besar dan harganya jauh lebih rendah
Model besar saat ini dilayani langsung oleh ds dengan harga $1.74 in / $3.48 out / $0.14 cache, jadi sangat murah untuk nilai yang ditawarkan
Model kecil $0.14 in / $0.28 out / $0.028 cache, jadi praktis murah sekali sampai nyaris tak perlu dipikirkan, dan bisa menjadi kandidat realistis untuk dijalankan di rumah
Jika performanya cukup bagus, sepertinya sangat mampu bersaing dengan lini haiku atau gemini-flash
Rata-rata peningkatannya sekitar 2%, dan sejujurnya sulit menilai apakah itu besar atau remeh
Claude 4.6 jauh lebih baik hampir 10pp pada tanya-jawab konteks panjang, terutama corpuses di CorpusQA dan percakapan multi-putaran di MRCR
Sebaliknya, DSv4 unggul 14pp penuh di IMOAnswerBench dan 12pp di SimpleQA-Verified
Bobot model bisa diunduh di sini
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro
https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash-Base
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro-Base
Sangat bagus karena base model yang baru juga ikut dirilis
Saya sangat tertarik pada bidang ini dan juga punya banyak hal yang dipertaruhkan di dalamnya, tetapi jujur sekarang saya mulai burnout kalau harus terus mengikuti semuanya
Rasanya kita sudah lama melewati titik di mana AI perlu merangkum perkembangan AI agar kita bisa mengikutinya
Mirip berita pada umumnya, saat ada hal yang benar-benar perlu diketahui, seseorang akan memberi tahu lebih dulu
Cukup diikuti seperti mengikuti olahraga, dan kalau menerima bahwa posisi puncak memang bisa berganti, rasanya tidak terlalu melelahkan
Model baru keluar lalu ceritanya hanya beberapa benchmark yang membaik, sementara pengalaman subjektif saat benar-benar dipakai hampir sama
Sejak itu tidak banyak yang benar-benar mengejutkan, dan sekarang rasanya stagnan menjadi sesuatu yang hanya diminati kelompok antusias
Dibanding fakta bahwa High Flyer membuat ini dengan meniru Anthropic secara terang-terangan, yang lebih mengganggu bagi saya justru bahwa GAB memberi mereka cukup waktu untuk menanam puluhan easter egg setingkat xz di dalamnya
Baru saja saya mencobanya lewat OpenRouter di Pi Coding agent, dan cukup sering read dan write tool tidak dipakai dengan benar
Cukup mengecewakan, dan saya penasaran apakah ada solusi yang lebih baik daripada prompt seperti "jangan gunakan direct call, selalu gunakan tool yang disediakan"
Kemungkinan besar pra-pengujian dengan Pi memang belum cukup dilakukan