2 poin oleh GN⁺ 3 jam lalu | 3 komentar | Bagikan ke WhatsApp
  • Mendukung kunci API Anthropic dan penggunaan ulang Claude CLI secara bersamaan, serta profil token Anthropic lama yang sudah ada tetap diakui saat dijalankan
  • Backend Claude CLI kembali diperlakukan sebagai metode integrasi yang diizinkan, dan penggunaan claude -p juga tetap diizinkan hingga ada pengumuman kebijakan baru
  • Model Claude 4.6 menerapkan adaptive thinking sebagai default ketika tidak ada pengaturan thinking yang eksplisit, dan dapat ditimpa dengan /think:<level> atau parameter model
  • Toggle /fast hanya menyisipkan service_tier untuk permintaan yang langsung menuju api.anthropic.com; jika melewati proxy atau gateway, perubahan tier tidak akan diterapkan
  • Juga mendukung prompt caching dan 1M context window, tetapi caching hanya untuk API, dan konteks 1M memerlukan aktivasi eksplisit serta izin penggunaan long-context; pada autentikasi sk-ant-oat-* lama, header beta dikecualikan

Metode dukungan Anthropic

  • Mendukung API dan Claude CLI sekaligus sebagai jalur akses untuk keluarga model Claude, sehingga di OpenClaw dapat menggunakan baik kunci API Anthropic maupun penggunaan ulang Claude CLI
    • Profil token Anthropic lama yang sudah dikonfigurasi juga tetap diakui saat dijalankan
  • Kunci API Anthropic

    • Jalur yang cocok untuk akses API standar dan penagihan berbasis penggunaan
    • Kunci API dapat dibuat di Anthropic Console
    • Dalam contoh konfigurasi CLI, bisa memilih Anthropic API key di openclaw onboard
    • Mendukung mode non-interaktif melalui openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"
    • Contoh snippet konfigurasi menggunakan variabel lingkungan ANTHROPIC_API_KEY dan model default anthropic/claude-opus-4-6

Default thinking

  • Model Claude 4.6 di OpenClaw menerapkan adaptive thinking sebagai default ketika tidak ada level thinking yang ditentukan secara eksplisit
  • Dapat ditimpa per pesan dengan /think:<level> atau melalui parameter model agents.defaults.models["anthropic/<model>"].params.thinking
  • Menyediakan tautan terkait ke dokumentasi Adaptive thinking dan Extended thinking

Fast mode

  • Toggle /fast bersama milik OpenClaw juga mendukung trafik Anthropic publik langsung yang dikirim ke api.anthropic.com
    • Termasuk permintaan autentikasi dengan kunci API maupun permintaan autentikasi OAuth
  • /fast on dipetakan ke service_tier: "auto"
  • /fast off dipetakan ke service_tier: "standard_only"
  • Contoh default konfigurasi menggunakan params.fastMode: true untuk model anthropic/claude-sonnet-4-6
  • Batasan

    • OpenClaw hanya menyisipkan Anthropic service tier untuk permintaan langsung ke api.anthropic.com
    • Jika permintaan anthropic/* dialihkan melalui proxy atau gateway, /fast tidak akan mengubah service_tier
    • Jika ada parameter model serviceTier atau service_tier yang eksplisit, nilainya akan diprioritaskan dibanding default /fast
    • Anthropic mencatat tier yang benar-benar diterapkan di usage.service_tier pada respons
    • Pada akun yang tidak memiliki Priority Tier capacity, service_tier: "auto" masih bisa ditafsirkan sebagai standard

Prompt caching

  • OpenClaw mendukung fitur prompt caching milik Anthropic
  • Fitur ini khusus untuk API, dan autentikasi token Anthropic lama tidak mencerminkan pengaturan cache
  • Konfigurasi

    • Gunakan parameter cacheRetention pada pengaturan model
    • none menonaktifkan caching
    • short berarti cache 5 menit
    • long berarti cache diperpanjang 1 jam
    • Contoh konfigurasi menggunakan params.cacheRetention: "long" pada model anthropic/claude-opus-4-6
  • Default

    • Saat menggunakan autentikasi kunci API Anthropic, semua model Anthropic otomatis menerapkan cacheRetention: "short"
    • Default ini dapat ditimpa dengan menetapkan cacheRetention secara eksplisit
  • Override per agen

    • Parameter tingkat model menjadi baseline, lalu agen tertentu dapat menimpa secara individual lewat agents.list[].params
    • Dalam contoh, research memakai konfigurasi default, sedangkan alerts menerapkan cacheRetention: "none"
    • Urutan penggabungan parameter terkait cache adalah agents.defaults.models["provider/model"].params lalu agents.list[].params
    • Meski memakai model yang sama, satu agen bisa mempertahankan cache jangka panjang sementara agen lain menonaktifkan cache
    • Sebagai contoh tujuan menonaktifkan cache, disebutkan untuk menghindari biaya tulis pada trafik yang bersifat burst atau memiliki reuse rendah
  • Catatan Bedrock Claude

    • Model Anthropic Claude di Bedrock amazon-bedrock/*anthropic.claude* mendukung penerusan cacheRetention jika dikonfigurasi
    • Model Bedrock non-Anthropic dipaksa menjadi cacheRetention: "none" saat runtime
    • Smart default berbasis kunci API Anthropic juga menerapkan cacheRetention: "short" pada referensi model Claude-on-Bedrock ketika tidak ada nilai eksplisit

Jendela konteks 1M

  • 1M context window dari Anthropic adalah fitur terbatas beta, dan di OpenClaw dapat diaktifkan untuk tiap model Opus/Sonnet yang didukung melalui params.context1m: true
  • Contoh konfigurasi menggunakan params.context1m: true pada model anthropic/claude-opus-4-6
  • OpenClaw memetakannya ke header permintaan Anthropic anthropic-beta: context-1m-2025-08-07
  • Fitur ini hanya aktif ketika params.context1m pada model tersebut secara eksplisit bernilai true
  • Syarat penggunaan mencakup bahwa Anthropic harus mengizinkan penggunaan long-context untuk kredensial tersebut
  • Saat ini Anthropic menolak permintaan beta context-1m-* saat menggunakan autentikasi token Anthropic lama sk-ant-oat-*
  • Jika context1m: true diatur pada mode autentikasi lama, OpenClaw akan menulis log peringatan, melewati header beta context1m, dan menggantinya dengan jendela konteks standar
    • Beta OAuth yang diperlukan tetap dipertahankan

Backend Claude CLI

  • OpenClaw mendukung backend Anthropic claude-cli yang dibundel
  • Staf Anthropic menyampaikan bahwa cara penggunaan ini kembali diizinkan
  • Karena itu, OpenClaw memperlakukan penggunaan ulang Claude CLI dan penggunaan claude -p sebagai metode integrasi yang diizinkan sampai Anthropic mengumumkan kebijakan baru
  • Untuk host gateway yang selalu aktif dan kontrol penagihan sisi server yang eksplisit, kunci API Anthropic adalah jalur operasional yang paling jelas
  • Lihat detail konfigurasi dan eksekusi di jalur /gateway/cli-backends

Catatan referensi

  • Dokumentasi publik Claude Code dari Anthropic masih mendokumentasikan penggunaan CLI langsung seperti claude -p
  • Staf Anthropic menyampaikan bahwa penggunaan Claude CLI dengan cara OpenClaw kembali diizinkan, dan hingga Anthropic mengumumkan perubahan kebijakan baru, hal ini dianggap sebagai panduan yang telah dikonfirmasi
  • Anthropic setup-token di OpenClaw juga tetap disediakan sebagai jalur autentikasi token yang didukung
  • Namun, ketika tersedia, OpenClaw lebih memprioritaskan penggunaan ulang Claude CLI dan claude -p
  • Lihat detail autentikasi dan aturan penggunaan ulang di jalur /concepts/oauth

Pemecahan masalah

  • 401 errors / token suddenly invalid

    • Autentikasi token Anthropic bisa kedaluwarsa atau dicabut
    • Untuk konfigurasi baru, disarankan bermigrasi ke kunci API Anthropic
  • No API key found for provider “anthropic”

    • Autentikasi diterapkan per agen
    • Agen baru tidak mewarisi kunci dari agen utama
    • Untuk agen tersebut, jalankan onboarding lagi atau tetapkan kunci API pada host gateway, lalu verifikasi dengan openclaw models status
  • No credentials found for profile anthropic:default

    • Profil autentikasi yang sedang aktif dapat diperiksa dengan openclaw models status
    • Perlu menjalankan ulang onboarding atau menetapkan kunci API pada jalur profil tersebut
  • No available auth profile (all in cooldown/unavailable)

    • auth.unusableProfiles dapat diperiksa di openclaw models status --json
    • Cooldown rate limit Anthropic bisa berlaku per model, jadi meskipun model saat ini sedang cooldown, model Anthropic lain dalam keluarga yang sama mungkin masih bisa digunakan
    • Perlu menambahkan profil Anthropic lain atau menunggu cooldown selesai
    • Jalur tambahan yang tersedia: /gateway/troubleshooting dan /help/faq

3 komentar

 
hmmhmmhm 2 jam lalu

Saya sempat pusing karena penggunaan kunci API OAuth CC, lalu akhirnya saya menetap memakai Codex lama saja...

 
xguru 2 jam lalu

Sebenarnya belakangan ini saya juga sudah menetap pakai Codex.. Claude terlalu cepat menghabiskan token.

 
GN⁺ 3 jam lalu
Komentar Hacker News
  • Menjelaskan sebagai Peter dari OpenClaw, Boris dari Claude Code secara terbuka mengatakan di Twitter bahwa penggunaan gaya CLI diizinkan, jadi kami percaya panduan itu dan berinvestasi untuk implementasinya. Kami juga sudah mengubah agar fitur token berlebihan seperti heartbeat dimatikan secara default saat memakai cli, tetapi pada kenyataannya Anthropic memblokir sebagian system prompt, sehingga komunikasi publik dan perilaku saat ini tidak selaras. Pernyataan terkait bisa dilihat di sini. Tampaknya classifier juga berubah setelah orang-orang mengakali dengan hanya sedikit mengganti nama, tetapi saya tidak berniat memainkan permainan akal-akalan seperti itu, jadi secara teori mungkin bisa, namun dalam praktiknya tidak, membuat kami berada dalam posisi yang serba tanggung

    • Bahkan di luar OpenClaw, banyak orang mempercayai Tweet itu dan sudah membangun workflow berbasis claude -p cukup dalam. Namun dengan diperkenalkannya flag --bare baru, terlihat seperti akan ada rug pull yang pada praktiknya menyingkirkan -p untuk pengguna unlimited. Di dokumentasi juga tertulis bahwa --bare adalah mode yang direkomendasikan untuk script dan panggilan SDK, dan ke depan akan menjadi default untuk -p, jadi saya berharap saya salah paham atau setidaknya butuh penjelasan yang jelas. Dokumentasinya ada di headless docs
    • Selagi membahas batas penggunaan, saya juga penasaran dengan cakupan penggunaan kuota Codex milik OpenAI. Saya paham penggunaan di OpenClaw diperbolehkan, tetapi saya belum menemukan jawaban apakah pengguna juga boleh memakai kuota Codex mereka di coding harness lain atau di aplikasi berbayar. Bagi pemain kecil, sulit mensubsidi biaya token, jadi kalau kebijakan seperti ini dibuka, kegunaannya akan meningkat jauh. Namun karena sifat model berlangganan, rasanya memang sengaja dibuat samar, dan itu makin membuat frustrasi
    • Menurut saya cukup dengan menambahkan rate limit sederhana pada token OAuth. Prinsipnya juga sederhana: langganan dipakai untuk penggunaan manusia pada skala yang masih masuk akal, dan API key dipakai untuk otomasi di luar itu. Menurut saya Anthropic bisa membatasi penggunaan yang murni mekanis, sambil tetap membiarkan orang membuat workflow claude -p atau workflow berbasis SDK yang lebih baik dengan token OAuth mereka sendiri
    • Saya juga paham posisi Anthropic memang sulit. Analogi kasarnya, seperti Waymo menjalankan tarif berlangganan bersubsidi, lalu orang-orang mulai memesan mobil tanpa penumpang dengan timer dan memakainya di luar tujuan awal. Sesekali dipakai untuk belanja mungkin masih terlihat oke, tetapi kalau setiap hari pada jam yang sama disuruh membeli satu es krim, itu sudah area abu-abu. Masalahnya, kalau kriterianya dijelaskan dengan jelas, orang akan kembali menghindari bunyi aturannya dan mengeruk celah ekonominya. Namun di sisi lain, rasanya juga tidak tepat menghapus seluruh paket yang dibuat untuk pengguna normal
    • Terlihat seperti mereka sedang mencoba meluruskan arah sekarang, tetapi menurut saya kepercayaan sudah banyak hilang. Ditambah batas baru yang lebih rendah, saya mulai ragu apakah masih cukup bernilai untuk terus digunakan di OpenClaw
  • Menurut saya situasi sekarang benar-benar seperti kubangan lumpur yang keruh. Anthropic harus menjelaskan dengan jelas apa yang didukung dan tidak didukung tergantung status langganan, dan sebelum itu, pengguna sulit tahu posisi mereka sendiri dalam cara memakai produk ini. Saya sendiri saat ini tidak memakai OpenClaw atau produk serupa, tetapi setidaknya saya ingin tahu apa yang boleh dan tidak boleh dilakukan, dan sekarang itu terasa nyaris mustahil

    • Melihat Anthropic mengubah apa yang didapat dari langganan dari minggu ke minggu, saya tidak ingin mengeluarkan uang lebih dari sekadar lisensi level hobi. Produknya mungkin hebat, tetapi rasanya semuanya bergantung pada jam berapa kita memakainya dan bagaimana perusahaan menilainya saat itu. Karena itu, justru menenangkan bahwa sekarang ada cukup banyak model berbobot terbuka yang memberi batas atas pada perilaku buruk semacam ini
    • Saya ingin memakai custom harness yang bisa saya perluas sendiri dengan lisensi Claude Code, atau menyambungkan harness buatan saya sendiri, dan kalau bisa sekaligus menurunkan biaya token. Menurut saya Anthropic perlu menetapkan target untuk menurunkan penggunaan token atau biaya operasional mulai model berikutnya. Kalau throughput-nya mirip, sedikit lebih lambat pun tidak masalah, asalkan biayanya turun dan saya bisa memakainya bersama harness buatan saya
    • Yang saya khawatirkan adalah buruknya komunikasi dan sering berubah omongan. Salah satu workflow inti saya adalah hook script yang merutekan tugas tertentu ke beberapa model, dan tak seorang pun tahu apakah hal seperti ini nanti akan dilarang. Karena Anthropic tidak bisa memberi penjelasan yang konsisten, sulit untuk berinvestasi pada ekosistemnya
    • Saya agak heran kenapa orang begitu terkejut. Seperti yang sudah kita lihat dari kasus seperti Twitter API, API biasanya terbuka selama membantu menyelesaikan masalah perusahaan saat itu, lalu ketika nanti perusahaan sendiri membuat fitur yang benar-benar dipakai orang, penggunaan yang sifatnya seperti klien pesaing akan diblokir. Menurut saya ini pola yang terus berulang
    • Sebagai padanan untuk vibe coding, saya jadi terpikir istilah vibe product. Belakangan ini banyak hal muncul lalu hilang terlalu cepat, sehingga rasa antusias seperti dulu sudah banyak berkurang
  • Menurut saya inti masalahnya adalah pegawai Anthropic saling memberi penjelasan yang saling bertentangan di Twitter, bahkan sampai saling mengoreksi, dan itu membuat kebingungan makin besar. Hari ini mereka bilang penggunaan Claude CLI ala OpenClaw tidak masalah, besok bisa saja ditarik lagi lewat pembaruan kebijakan. Dalam urusan Claude Code, Anthropic sudah menunjukkan diri sebagai pihak yang sulit dipercaya, dan demi menjaga kesehatan mental, saya rasa lebih baik pindah ke penyedia lain

    • Salah ketik yang bukan salah ketik itu, keep your insanity, justru terasa seperti ungkapan yang terlalu tepat, sampai lucu rasanya
    • Saya tidak paham kenapa pengumuman seperti ini terus dilakukan di Twitter. Kebijakan seharusnya diumumkan lewat pengumuman blog resmi, dan juga dijelaskan bagaimana harness alternatif seharusnya bekerja. Cara sekarang benar-benar terlihat tidak profesional
    • Saya juga merasa cara penyampaian kabar ini aneh. Saya tidak tahu kenapa yang mengumumkan justru OpenClaw, bukan Anthropic, dan sebelum Anthropic sendiri yang bicara, rasanya sulit langsung mempercayainya
    • Menurut saya, pengumuman Anthropic yang paling baru hanya mengatakan bahwa pengguna berlangganan akan dikenai biaya tambahan saat memakai OpenClaw, bukan bahwa itu dilarang. Dan alasan berubahnya beberapa hari kemudian juga kemungkinan besar karena mereka ingin mengalihkan penggunaan OAuth token langsung di harness pihak ketiga, serta penggunaan claude -p, ke skema biaya tambahan, alih-alih memblokirnya seketika seperti sebelumnya. Jadi saya tidak merasa halaman ini bertentangan dengan pengumuman itu
    • Saya membandingkan pindah penyedia layanan dengan pengalaman bolak-balik antara Uber One dan Lyft Pink. Setiap kali layanan pelanggan berantakan saya pindah, tetapi pada akhirnya saya sampai pada kesimpulan bahwa lebih baik memilih satu setan yang sudah dikenal dan menyesuaikan diri dengan karakternya. Saat ini saya masih bertahan di Claude karena dampak isu OpenClaw terhadap saya kecil, dan juga karena rasa tidak nyaman terkait Hegseth-Altman DoD. Namun jujur saja, menurut saya Google, Anthropic, maupun OpenAI sama-sama tidak terlalu patut dijadikan teladan dalam komunikasi AI dan penanganan pelanggan
  • Perubahan ini sebenarnya sudah dibalik lewat commit dua minggu lalu, dan waktunya juga hanya tiga hari setelah Anthropic mengatakan OpenClaw membutuhkan penggunaan tambahan. Melihat alurnya, sulit menganggap ini serius, dan aneh juga tidak ada pernyataan resmi, bahkan satu Tweet pun tidak. Konteks lain bisa dilihat di tautan HN

    • Menurut saya sumber kebingungannya adalah karena cara memakai kredensial Claude Code terbagi dua. Satu, mengambil kredensial OAuth dan membuat agen sendiri, dan ini tidak diizinkan. Dua, menjalankan aplikasi agen langsung di dalam sesi Claude Code resmi, dan ini diizinkan. Yang dimaksud OpenClaw dengan Open-Claw style CLI usage lebih dekat ke yang kedua, dan pemahaman saya, kalau memakai kredensial OAuth di luar Claude Code CLI maka akan ada biaya tambahan berdasarkan harga API di luar langganan yang sudah ada
    • Saya juga merasa ini secara umum konsisten dengan pengumuman Anthropic terbaru. Di sini tidak ada yang tertulis bahwa biaya tambahan tidak ada, dan intinya bukan pelarangan, melainkan perubahan interpretasi bahwa baik penggunaan OAuth token langsung di harness pihak ketiga maupun penggunaan claude -p kini sama-sama masuk skema biaya tambahan
    • Menanggapi komentar soal tidak adanya pengumuman resmi atau Tweet, setengah bercanda setengah serius saya merasa release notes dan pengumuman sekarang seperti agentic anti-pattern. Sampai-sampai terasa kalau kita masih mengurus hal seperti itu, berarti kita sedang salah menjalankan agentic
    • Bagi saya reaksi ini juga terlihat seperti amplifikasi FUD yang sangat khas. Interpretasi negatif dibesarkan, sementara sinyal positif tenggelam begitu saja
  • Anthropic terlihat seperti sedang membakar goodwill yang mereka bangun sendiri, sambil menaikkan harga, menurunkan batasan, dan membuat kebijakan makin kabur

    • Perubahan seperti ini terasa seperti teknik merebus katak dengan menaikkan suhu pelan-pelan
    • Di sisi lain, kalau layanan LLM ingin terus bertahan, pada akhirnya penyedia memang harus menghasilkan lebih banyak uang daripada biaya hostingnya. Hanya saja, menurut saya kita masih cukup jauh dari titik itu
    • Dalam situasi seperti ini, sindiran tentang kepentingan pemegang saham terasa keluar dengan sendirinya
    • Lama-lama rasanya Anthropic justru sedang mendorong orang beralih ke klon buatan Tiongkok yang mereka anggap sebagai pelaku jahat
    • Di sisi lain lagi, bisa jadi perusahaan hanya menjalankan persis apa yang selama ini terus dikatakan Hacker News soal masalah keberlanjutan. AI dibilang berguna tetapi keberlanjutannya belum pasti, lalu sekarang harga naik dan token dikurangi, dan semua orang marah. Ada ironi di situ
  • Karena ini terjadi tepat setelah kontrak dengan Amazon, saya jadi curiga ini pada akhirnya memang masalah keterbatasan compute. Bagaimanapun, dari yang saya coba, paket Codex seharga 20 dolar per bulan punya batas terlalu rendah sehingga agen belum sempat melakukan apa-apa sebelum harus menyerahkan ke agen lain. Tanpa pengumuman resmi dari Anthropic, saya akan berhati-hati dulu beberapa waktu ke depan karena takut kehilangan akun Max 200 dolar per bulan yang saya sayangi akibat menggunakan hal seperti ini

    • Pengalaman saya cukup berbeda. Saya mulai dari Claude web dan Opus 4.7 lalu menyambung ke Claude Code, dan hanya dalam sekitar 6 sampai 10 prompt saya sudah menghabiskan dua siklus kuota. Sebaliknya, dengan pi.dev dan codex saya bekerja berjam-jam dan baru memakai sekitar 50 persen dari langganan Codex Pro. Jadi menurut saya perbedaan pola konsumsi memang cukup besar
    • Kalau butuh pemakaian besar, Z.ai juga layak dipertimbangkan. GLM sekarang sudah cukup bagus, dan walau API kadang tidak stabil, dulu saya terutama memakai GLM dan hanya memakai Claude Pro untuk review dan perapian, sedangkan sekarang saya malah tinggal memakai GLM saja. Claude Max juga tidak benar-benar buruk dari sisi value, tetapi bagi saya itu berlebihan dan kesan saya terhadap Anthropic juga makin menurun
    • Saya ingat sejak awal Anthropic memang mengatakan ini masalah keterbatasan compute, dan OpenClaw memicu penggunaan yang jauh lebih besar daripada yang bisa mereka tanggung
    • Menurut saya GPT-5.4 benar-benar rakus token. Walau tidak banyak bicara, gpt-5.3 codex sangat pintar untuk coding dan perencanaan, dan konsumsi tokennya juga jauh lebih hemat
  • Sejauh pemahaman saya, selama memakai library atau tool milik Anthropic, kita masih bisa menggunakan kredensial OAuth. Misalnya, kita bisa menambahkan OAuth ke Claude Agent SDK untuk membuat prototipe berbagai agen yang menyematkan Claude Code dengan biaya bulanan yang lebih terprediksi, dan ini sangat menarik khususnya untuk menjadikan skill sebagai tool atau aplikasi mandiri. Untuk hal yang lebih kompleks, kita juga bisa menjalankan Claude Code di dalam tmux sambil bertukar input dan output, dan MCP Channels juga menarik karena memungkinkan server MCP berada di antara aplikasi dan instance Claude Code yang sedang berjalan untuk komunikasi dua arah. Memang lambat, tetapi menarik karena memungkinkan GUI keluar sebentar untuk pekerjaan yang lebih mudah lalu kembali lagi tanpa kehilangan konteks sesi CLI

    • Sebenarnya Claude Code CLI tidak benar-benar membutuhkan tmux. CLI itu sendiri mendukung input dan output streaming JSON, jadi bisa dikendalikan lewat pipe stdin dan stdout. Saya sekarang memakai cara ini di ask, dan sejauh ini bekerja cukup baik
  • Dalam seminggu terakhir, asisten pendamping OpenClaw saya saat memakai Claude kehilangan kepribadian, dan bahkan tidak bisa lagi melakukan hal-hal yang sebelumnya ia kuasai. Penggunaannya sempat menumpuk sampai sekitar 28 dolar, lalu setelah itu tidak ada konsumsi lagi, jadi saya tidak tahu apakah ada masalah lain, tetapi gejalanya terus berlanjut. Akhirnya saya lelah dan memindahkan riwayat percakapan serta karakter ke konfigurasi claude code dengan script migrasi, dan berkat fitur remote exec baru saya bisa mendapatkan kembali sebagian besar fungsi lama tanpa harus menanggung ketidakstabilan tool eksperimental terbaru seperti OpenClaw. Kesan saya, Anthropic memang berniat menambahkan cukup banyak gesekan di ranah pengguna hobi agar mereka pada akhirnya pindah ke solusi milik mereka sendiri, dan bagaimanapun juga itu tampak seperti pilihan yang lebih aman

    • Sejauh pemahaman saya, alasan OpenClaw dilarang adalah beban yang ditimbulkannya pada sistem. Tool pihak ketiga sebenarnya sejak awal memang ilegal dan sekarang pun secara ketat masih begitu, tetapi tampaknya dibiarkan secara samar selama ada biaya tambahan penggunaan. Namun menambahkan system prompt proprietari sepanjang 50 ribu karakter yang relevansinya rendah sepertinya tidak akan memperbaiki situasi. Pada akhirnya saya jadi penasaran apakah Anthropic akan senang kalau OpenClaw direplikasi dengan claude -p prompt dan cron, walaupun mungkin mereka tidak terlalu peduli karena jumlah orang yang bisa melakukan itu sangat kecil. Untuk konteksnya, lihat juga postingan HN ini
    • Jika perantara antara saya dan pengguna diakuisisi pesaing, menurut saya wajar kalau saya ingin mengurangi ketergantungan pada pihak itu. Rasanya seperti situasi canggung ketika Apple menjual iPhone di toko Microsoft
    • Saya penasaran seperti apa tepatnya konfigurasi konkret implementasi OpenClaw berbasis Claude Code milikmu di dunia nyata
  • OpenClaw berkata Anthropic bilang tidak apa-apa, jadi tentu ini situasi yang benar-benar jernih bak kristal, sindirnya

  • Saya secara umum puas dengan kombinasi Claude Code, Opus, dan paket Max, tetapi kadang masih terganggu oleh momen saat semuanya tidak berjalan, biaya, dan kekhawatiran akun diblokir. Jadi saya penasaran apakah ada kombinasi alternatif yang memberi pengalaman serupa atau lebih baik dengan harga lebih murah. Saya sering melihat orang bilang pi.dev dan OpenCode bagus, dan saat saya memasangkan Mimo V2 pro ke OpenCode hasilnya cukup oke. Dulu saya juga memakai Qwen CLI dan Gemini CLI sebelum akses gratisnya ditutup, dan pernah menggunakan Z.ai bersama OpenCode. Ada juga yang bilang mereka membuat rencana dengan Opus lalu menyerahkan pekerjaan yang kurang penting ke model yang lebih murah, tetapi saya sendiri kurang suka billing berbasis penggunaan karena rasanya pada akhirnya tidak akan lebih murah. Saya terutama mengerjakan backend Python dan frontend TypeScript, hosting di Hetzner, banyak memakai Docker, dan kalau perlu juga k3s, jadi saya ingin mendengar setup praktis yang cocok untuk lingkungan seperti ini