10 poin oleh GN⁺ 6 hari lalu | 1 komentar | Bagikan ke WhatsApp
  • Berjalan dengan format kompatibel OpenAI/Anthropic, sehingga cukup mengubah base_url pada pengaturan SDK untuk mengakses API DeepSeek dengan cara yang sama
  • Opsi model default yang terlihat adalah deepseek-v4-flash dan deepseek-v4-pro, sementara deepseek-chat dan deepseek-reasoner dijadwalkan deprecated pada 2026/07/24
  • Untuk menjaga kompatibilitas, deepseek-chat dipetakan ke mode non-thinking dari deepseek-v4-flash, sedangkan deepseek-reasoner dipetakan ke mode thinking
  • Chat API dipanggil melalui endpoint https://api.deepseek.com/chat/completions dengan header Authorization: Bearer ${DEEPSEEK_API_KEY} dan body JSON; contohnya menggunakan deepseek-v4-pro, thinking, reasoning_effort="high", stream=false
  • Baik Python maupun Node.js menyediakan contoh pemanggilan dengan OpenAI SDK; respons dibaca dari choices[0].message.content, dan jika stream diubah menjadi true maka akan menerima respons streaming

Memulai pemanggilan API

  • DeepSeek API menggunakan format kompatibel OpenAI/Anthropic, sehingga cukup mengubah pengaturan untuk mengaksesnya melalui OpenAI atau Anthropic SDK maupun perangkat lunak yang kompatibel dengan API tersebut
  • Model yang tersedia ditampilkan sebagai deepseek-v4-flash, deepseek-v4-pro, deepseek-chat, dan deepseek-reasoner
    • deepseek-chat dan deepseek-reasoner dijadwalkan deprecated pada 2026/07/24
    • Untuk menjaga kompatibilitas, deepseek-chat dipetakan ke mode non-thinking dari deepseek-v4-flash
    • deepseek-reasoner dipetakan ke mode thinking dari deepseek-v4-flash

Memanggil Chat API

  • Setelah mendapatkan API key, model DeepSeek dapat diakses dengan contoh format OpenAI API
    • Contohnya adalah pemanggilan non-stream; jika nilai stream diubah menjadi true, respons streaming dapat diterima
    • Contoh format Anthropic API dapat dilihat di Anthropic API
  • Contoh curl mengirim permintaan ke https://api.deepseek.com/chat/completions dengan header Authorization: Bearer ${DEEPSEEK_API_KEY} dan body JSON
    • Model ditetapkan sebagai deepseek-v4-pro
    • messages berisi system message "You are a helpful assistant." dan user message "Hello!"
    • thinking diatur ke {"type": "enabled"}
    • reasoning_effort diatur ke "high"
    • stream diatur ke false
  • Contoh Python dijalankan setelah terlebih dahulu memasang OpenAI SDK
    • Perintah instalasinya adalah pip3 install openai
    • Pada klien OpenAI, digunakan api_key=os.environ.get('DEEPSEEK_API_KEY') dan base_url="https://api.deepseek.com";
    • Pada pemanggilan client.chat.completions.create, model diatur ke deepseek-v4-pro, stream=False, reasoning_effort="high"
    • extra_body={"thinking": {"type": "enabled"}} juga dikirimkan
    • Respons ditampilkan melalui response.choices[0].message.content
  • Contoh Node.js juga dijalankan setelah terlebih dahulu memasang OpenAI SDK
    • Perintah instalasinya adalah npm install openai
    • Instance OpenAI menggunakan baseURL: 'https://api.deepseek.com' dan apiKey: process.env.DEEPSEEK_API_KEY
    • Pada pemanggilan openai.chat.completions.create, diatur messages, model: "deepseek-v4-pro", thinking: {"type": "enabled"}, reasoning_effort: "high", stream: false
    • Hasilnya ditampilkan melalui completion.choices[0].message.content

1 komentar

 
GN⁺ 6 hari lalu
Komentar Hacker News
  • Untuk model besar seperti v4 pro, biayanya sekitar $4 per 1 juta token output, jadi saya tidak yakin klaim bahwa "lab frontier menjalankannya dengan subsidi inferensi yang gila-gilaan" itu benar
    Model langganan pun tampaknya sudah cukup menguntungkan, belum lagi harga API
    Input $1.74/M, output $3.48/M menurut OpenRouter

    • Ada juga penjelasan bahwa harga tinggi sekarang disebabkan oleh kekurangan kartu inferensi DeepSeek
      Katanya dalam siaran pers disebutkan bahwa ketika kartu komputasi Ascend 950 keluar pada paruh kedua tahun ini, harga Pro akan turun besar
    • Dari sisi biaya operasional mungkin sudah untung, tetapi jika dihitung berdasarkan biaya modal dengan jadwal depresiasi saat ini, mungkin belum
      Meski begitu, belakangan estimasi biaya itu juga cenderung naik lebih tinggi dari perkiraan
    • Saya juga melihatnya kurang lebih sama
      Layanan berlangganan tampaknya sudah untung, dan narasi soal subsidi pada akhirnya terlihat seperti logika untuk mengambil margin lebih tinggi dari API pelanggan enterprise
    • Poin itu benar, tetapi masih belum ada penyedia Barat yang bisa menyamai level harga itu
      Biaya listrik di Tiongkok juga lebih murah
  • Agak menghangatkan hati bahwa dokumentasi pengembang keluar lebih dulu daripada siaran pers yang mencolok

    • Betul, ini benar-benar this is the way
    • Kalau mau menyebut ini open source, lalu di mana data pelatihan dan skrip pelatihannya?
      Setelah diperbaiki, sepertinya ungkapan "open source" sudah dihilangkan dari komentar teratas
  • Sudah muncul di OpenRouter
    Pro: input $1.74/m, output $3.48/m, dan Flash: input $0.14/m, output $0.28/m

  • Menyenangkan melihat open source sungguhan datang dari Tiongkok
    Saya tahu mungkin ada motif tersembunyi, tapi tetap saja terasa menarik

    • Perusahaan AS meminta verifikasi identitas yang berlebihan bahkan untuk akses model berbayar, menyimpan data serta memakainya untuk analisis dan pelatihan, dan juga terang-terangan mengatakan bisa menyerahkannya ke otoritas kapan pun diminta
      Motif tersembunyi Tiongkok itu asumsi, sementara pihak AS justru terbuka menunjukkannya
    • Tulisan ini membantu memahami kenapa lab Tiongkok merilis model mereka
      http://try.works/why-chinese-ai-labs-went-open-and-will-remain-open
    • Ini cuma open weights
  • Mereka mengunggah 1.6T Pro base model ke Hugging Face
    Ini pertama kalinya saya melihat notasi model skala T di sini

  • https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

    Modelnya dirilis dan cukup mengesankan
    Performanya kelas frontier, tetapi biayanya jauh lebih rendah, dan rasanya lebih baik daripada Opus 4.6

    • Saya mulai merasa sekarang sudah tidak perlu lagi membandingkan model dengan Opus
      Pengguna Opus akan tetap percaya itu yang terbaik, sedangkan yang bukan pengguna memang tidak menginginkan biaya, lock-in, dan batasannya
      Saya sendiri masih memakai model termurah dan tercepat yang bisa menyelesaikan pekerjaan, dan saat ini peran itu diisi MiniMax M2.5
      Kadang saya mencoba model terbaru yang lebih mahal, tetapi hasilnya mirip, jadi saya juga bertanya-tanya apakah ada hype berlebihan di seluruh industri AI yang membuat kemajuannya terlihat hanya di benchmark
    • Saya penasaran bagaimana kalau dibandingkan dengan Opus 4.7
      Saya ikut hackathon Anthropic Opus 4.7 sepanjang minggu ini dan banyak memakai 4.7; meski token yang dipakai jauh lebih banyak daripada 4.6, hasilnya cukup mengesankan
    • Saya penasaran apakah benar lebih baik daripada Opus 4.6, atau cuma sangat dioptimalkan untuk benchmark
      Ingin tahu apakah sudah dicoba untuk coding nyata dengan agent harness
      Kalau kemampuan coding-nya lebih baik daripada Claude Code + Opus 4.6, saya akan langsung pindah
    • Mulai lagi deh
      Setiap hari ada posting rilis yang bilang lebih baik daripada Opus 4.6, padahal DeepSeek sendiri pun tidak mengklaim itu jika thinking ikut dihitung
      Dsv3 bukan model yang cuma menggembungkan benchmark, dan pada tugas di luar benchmark pun cukup konsisten; memang belum SoTA, tetapi tetap bagus
      Model kali ini terlihat mirip
      Levelnya tepat di bawah performa terbaik, tetapi selisihnya tidak besar dan harganya jauh lebih rendah
      Model besar saat ini dilayani langsung oleh ds dengan harga $1.74 in / $3.48 out / $0.14 cache, jadi sangat murah untuk nilai yang ditawarkan
      Model kecil $0.14 in / $0.28 out / $0.028 cache, jadi praktis murah sekali sampai nyaris tak perlu dipikirkan, dan bisa menjadi kandidat realistis untuk dijalankan di rumah
      Jika performanya cukup bagus, sepertinya sangat mampu bersaing dengan lini haiku atau gemini-flash
    • Dari angka benchmark yang dipublikasikan, saya hitung kasar total selisihnya 20.1 poin persentase pada 20 metrik yang sama-sama punya skor
      Rata-rata peningkatannya sekitar 2%, dan sejujurnya sulit menilai apakah itu besar atau remeh
      Claude 4.6 jauh lebih baik hampir 10pp pada tanya-jawab konteks panjang, terutama corpuses di CorpusQA dan percakapan multi-putaran di MRCR
      Sebaliknya, DSv4 unggul 14pp penuh di IMOAnswerBench dan 12pp di SimpleQA-Verified
  • Bobot model bisa diunduh di sini
    https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro

  • Saya sangat tertarik pada bidang ini dan juga punya banyak hal yang dipertaruhkan di dalamnya, tetapi jujur sekarang saya mulai burnout kalau harus terus mengikuti semuanya
    Rasanya kita sudah lama melewati titik di mana AI perlu merangkum perkembangan AI agar kita bisa mengikutinya

    • Lebih baik jangan mencoba mengikuti semuanya
      Mirip berita pada umumnya, saat ada hal yang benar-benar perlu diketahui, seseorang akan memberi tahu lebih dulu
    • Pemain intinya hampir tidak berubah
      Cukup diikuti seperti mengikuti olahraga, dan kalau menerima bahwa posisi puncak memang bisa berganti, rasanya tidak terlalu melelahkan
    • Secara rasa, sejak GPT-4 semuanya mirip-mirip saja
      Model baru keluar lalu ceritanya hanya beberapa benchmark yang membaik, sementara pengalaman subjektif saat benar-benar dipakai hampir sama
      Sejak itu tidak banyak yang benar-benar mengejutkan, dan sekarang rasanya stagnan menjadi sesuatu yang hanya diminati kelompok antusias
  • Dibanding fakta bahwa High Flyer membuat ini dengan meniru Anthropic secara terang-terangan, yang lebih mengganggu bagi saya justru bahwa GAB memberi mereka cukup waktu untuk menanam puluhan easter egg setingkat xz di dalamnya

  • Baru saja saya mencobanya lewat OpenRouter di Pi Coding agent, dan cukup sering read dan write tool tidak dipakai dengan benar
    Cukup mengecewakan, dan saya penasaran apakah ada solusi yang lebih baik daripada prompt seperti "jangan gunakan direct call, selalu gunakan tool yang disediakan"

    • Baru dirilis belum lama ini, jadi sebaiknya tunggu sebentar
      Kemungkinan besar pra-pengujian dengan Pi memang belum cukup dilakukan