- Anthropic mengumumkan akan memperluas batas penggunaan Claude Code dan Claude API melalui kemitraan dengan SpaceX serta sejumlah kontrak komputasi yang baru ditandatangani
- Batas penggunaan 5 jam untuk Claude Code digandakan (paket Pro, Max, Team, dan Enterprise berbasis kursi), dan pengurangan batas pada jam sibuk untuk akun Pro dan Max dihapus
- API rate limits untuk model Claude Opus juga dinaikkan secara signifikan, dan kapasitas tambahan ini secara langsung meningkatkan ketersediaan penggunaan bagi pelanggan Claude Pro dan Claude Max
- Anthropic menandatangani kontrak untuk menggunakan seluruh kapasitas komputasi di pusat data Colossus 1 milik SpaceX, sehingga dalam sebulan mendapatkan akses ke kapasitas baru lebih dari 300MW dan lebih dari 220.000 NVIDIA GPU
- Ekspansi komputasi Anthropic ini berlangsung selain kontrak dengan Amazon, Google dan Broadcom, Microsoft dan NVIDIA, serta Fluidstack, sambil juga mempertimbangkan infrastruktur lokal, beban biaya listrik, dan investasi komunitas setempat
Perluasan batas penggunaan Claude
- Anthropic meningkatkan batas penggunaan Claude Code dan Claude API melalui kemitraan dengan SpaceX serta sejumlah kontrak komputasi yang baru ditandatangani
- Ketiga perubahan ini semuanya berlaku mulai hari pengumuman
- Batas penggunaan 5 jam untuk Claude Code digandakan pada paket Pro, Max, Team, dan Enterprise berbasis kursi
- Untuk akun Pro dan Max, pengurangan batas pada jam sibuk di Claude Code dihapus
- API rate limits untuk model Claude Opus juga dinaikkan secara signifikan
Kemitraan komputasi baru dengan SpaceX
- Anthropic menandatangani kontrak untuk menggunakan seluruh kapasitas komputasi di pusat data Colossus 1 milik SpaceX
- Melalui kontrak ini, dalam sebulan Anthropic akan mendapatkan akses ke kapasitas baru lebih dari 300MW dan lebih dari 220.000 NVIDIA GPU
- Kapasitas tambahan ini secara langsung meningkatkan ketersediaan penggunaan bagi pelanggan Claude Pro dan Claude Max
- Kontrak ini menambah pengumuman ekspansi komputasi besar Anthropic yang sudah ada sebelumnya
- Pelatihan dan inferensi Claude menggunakan berbagai perangkat keras AI seperti AWS Trainium, Google TPUs, dan NVIDIA GPUs
- Anthropic terus mencari peluang untuk mendapatkan kapasitas tambahan secara online
- Sebagai bagian dari kontrak dengan SpaceX, Anthropic juga menyatakan minat untuk bekerja sama dengan SpaceX dalam mengembangkan kapasitas komputasi AI orbital berskala beberapa GW
Ekspansi internasional dan infrastruktur lokal
- Pelanggan enterprise di industri yang sangat teregulasi seperti layanan keuangan, kesehatan, dan pemerintah semakin membutuhkan infrastruktur lokal untuk memenuhi persyaratan kepatuhan dan residensi data
- Karena itu, sebagian ekspansi kapasitas Anthropic dilakukan secara internasional
- Kerja sama yang baru diumumkan dengan Amazon mencakup tambahan kapasitas inferensi di Asia dan Eropa
- Wilayah untuk menambah kapasitas dipilih dengan hati-hati, dan Anthropic bekerja sama dengan negara demokrasi yang memiliki kerangka hukum dan regulasi yang dapat mendukung investasi berskala besar
- Keamanan rantai pasok untuk perangkat keras, jaringan, dan fasilitas yang dibutuhkan komputasi juga menjadi kriteria penting
Biaya listrik dan investasi komunitas
- Anthropic baru-baru ini mengumumkan komitmen untuk menanggung kenaikan tarif listrik konsumen jika pusat data di AS menyebabkan tarif tersebut naik
- Sebagai bagian dari ekspansi internasional, Anthropic sedang meninjau cara memperluas komitmen ini ke yurisdiksi baru
- Anthropic juga mendorong upaya untuk bekerja sama dengan pemimpin lokal agar bisa berinvestasi kembali ke komunitas tempat fasilitas berada
1 komentar
Komentar Hacker News
Sementara itu pelatihan akan tetap mahal, sehingga Anthropic/OpenAI akan bergerak ke sisi bisnis pelatihan
Model akan menjadi aset yang bisa disewa per unit atau dibeli, dan pengguna akan menjalankannya di perangkat keras inferensi, menyewa perangkat keras inferensi, atau memilikinya sendiri
Atau akan ada struktur di mana pengguna membayar premi kepada perusahaan yang mengurus semua itu untuk mereka
Bahkan hanya untuk sisi inferensi model terbaru seperti Opus, saya penasaran apakah ada tulisan blog atau semacamnya yang membahas infrastruktur seperti apa yang dipakai
Mungkin itu rahasia, tetapi kalau modelnya bisa dipakai langsung lewat AWS Bedrock, rasanya itu setidaknya memberi sedikit petunjuk
Pusat data kadang dijalankan dengan cara yang bodoh karena kecepatan ekspansi operasional lebih penting daripada biaya
Ada regulasi perusahaan listrik, dan ada hal-hal seperti laju ramping untuk mencegah kerusakan jaringan listrik, tetapi dijelaskan bahwa pusat data melanggar hal-hal ini secara serius
Variasi bebannya besar, mereka menyuplai daya dengan pembangkit gas alam di belakang meteran, dan ada cerita bahwa poros yang seharusnya bertahan 7 tahun hanya bertahan 10 bulan karena siklus hidup-mati berulang
https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
Untuk sisi komputasi, NVIDIA punya desain referensi standar
https://www.nvidia.com/en-us/technologies/enterprise-referen...
Saya belum melihat detailnya, tetapi tampaknya akan ada jaringan antar-GPU dari Mellanox, kode kustom skala besar untuk membagi tensor ke GPU, dan kode untuk memindahkan aktivasi antar node GPU
Anthropic meng-host modelnya di dalam AWS Bedrock sebagai layanan terkelola, dan pelanggan memanggil LLM seperti memanggil API lain
Infrastruktur AWS mana yang menangani permintaan API itu tidak terlihat
Mereka mengubah aset yang dibuat untuk Grok, yang sangat boros uang, menjadi sumber pendapatan yang cukup besar sebelum IPO
Pada saat yang sama, itu juga dipakai sebagai sarana untuk membebankan utang Twitter ke publik, jadi akuntan mereka jelas kompeten
Anthropic mendapatkan komputasi yang sangat mereka butuhkan untuk terus tumbuh, Elon menyewakan komputasi yang tidak bisa dipakai xAI dengan baik karena permintaan Grok rendah, dan SpaceX bisa mencatat pendapatan di pembukuannya untuk IPO
Kalimat “kami akan menambah kapasitas secara hati-hati dengan bekerja sama dengan negara-negara demokratis yang memiliki kerangka hukum dan regulasi untuk mendukung investasi sebesar ini” jika diterjemahkan ke bahasa dunia nyata kira-kira berarti “kami akan memprioritaskan laba di atas segalanya”
Elon adalah figur sayap kanan yang mendukung Trump dan Trump juga tidak terlalu demokratis, tetapi maksudnya adalah kami benar-benar butuh lebih banyak uang
Rasanya ini juga dimaksudkan agar orang lupa bahwa xAI menerima dana dari pemerintahan non-demokratis di Timur Tengah, dan kalau bisa menjual model Anthropic, mereka tampaknya juga akan membeli komputasi dari China
Pusat data bukanlah peralatan plug-and-play dengan spesifikasi rapi dan antarmuka standar internasional
Kalau Elon ingin membangun pusat data orbital, Anthropic dengan senang hati akan menjalankan modelnya di sana
Tidak banyak alasan untuk meragukan bahwa Elon bisa membangun pusat data orbital; pertanyaannya adalah apakah itu ekonomis dibandingkan infrastruktur berbasis darat
Kalau jadi, ya jadi; kalau tidak, ya tidak
Sebagai bagian dari kontrak untuk mendapat akses ke pusat data darat, mereka memoles komputasi orbital luar angkasa yang jelas-jelas muluk seolah-olah itu lebih dari kenyataannya
Saya bisa percaya sesuatu seperti itu mungkin akan ada suatu hari nanti, tetapi seperti FSD, sama sekali tidak terlihat dekat dengan kenyataan
Biaya untuk mengatakan itu hampir nol, dan nanti mereka tinggal bilang minatnya hilang
Kalau pun ada biaya, paling sedikit reputasi
Dengan menambah permintaan pada jaringan listrik, tempat ini juga sangat mungkin meningkatkan risiko warga saat cuaca ekstrem dengan memicu pemadaman besar
https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
Jadi meskipun Anthropic banyak bicara soal keselamatan, mereka juga bisa dimasukkan ke daftar perusahaan yang memprioritaskan laba di atas keselamatan
Bahkan tautan Wikipedia yang disertakan mengatakan mungkin ada nuansa soal perizinan, tetapi saya tidak melihat klaim bahwa listriknya “ilegal”
Mereka tidak memproduksi bahan kimia dan tidak melakukan hal seperti itu
Kita harus sangat skeptis terhadap tuduhan seperti ini, dan terutama ketika perusahaan besar terlibat, klaim kerugian yang “terdengar masuk akal dan terus diulang” saja bisa memicu gugatan atau tekanan untuk berdamai
Kalau benar, ini celah pajak yang luar biasa besar, dan tidak mengherankan investasi modal pada pusat data begitu tinggi
[0] https://www.datacenterknowledge.com/regulations/how-are-data...
Itu cuma berarti Anda bisa mencapai batas mingguan dalam 3 hari, bukan 5 hari
Pada minggu-minggu saat banyak dipakai, saya cenderung memakainya terus lebih dari 6 jam per hari
Tetapi saya cukup disiplin untuk selalu menjaga sesi di bawah 200 ribu hingga 250 ribu token
Saya memakainya sekitar 3–5 sesi per minggu
Kalau pekerjaannya lebih rumit, saya cepat menghabiskan jendela 5 jam itu sehingga terasa menjengkelkan, tetapi saya belum pernah mencapai batas mingguan
Saya rasa ada cukup banyak orang seperti saya
Kalau benar-benar dipaksa, bahkan batas mingguan paket Max $200 per bulan bisa habis dengan mudah dalam sehari
Di kepala saya, penggunaan mingguan itu saya hitung per hari, jadi sekitar 14% per hari, sehingga di awal minggu saya berusaha memakai lebih sedikit dan di akhir minggu sedikit lebih bebas menghabiskannya
Lalu pada dua hari terakhir saya malah sibuk memikirkan bagaimana cara menghabiskan jatah yang tersimpan
Jendela 5 jam justru membuat ini lebih sulit, dan pada hari terakhir minggu itu saya jadi berusaha memasukkan 10% pada setiap jendela 5 jam selama saya masih bangun, dan saya benar-benar membencinya
Saya ingin bekerja pada waktu ketika saya paling produktif, bukan menyesuaikan diri dengan jendela waktu yang konyol
Saya tidak ingin berpikir seperti, “sepertinya saya akan paling banyak memakai Claude pukul 11 pagi, jadi saya harus mengirim pesan bodoh ke Haiku pukul 7:30 pagi supaya jendela 5 jam mulai dan bergeser lagi pada pukul 12:30”
Jadi saya senang dengan perubahan ini, tetapi ini tetap hanya sedikit meredakan masalah yang 100% mereka ciptakan sendiri sambil berpura-pura sedang berbuat baik kepada pengguna
Saya paham maksud mereka ingin menurunkan pemakaian pada jam sibuk, tetapi saya tetap tidak suka
Pada akhirnya, ini terlihat seperti Elon menyerah pada xAI dan beralih ke menjual komputasi
Grok 4.1 Fast adalah cara termurah untuk melakukan riset di X, bahkan lebih murah daripada X API, tetapi model itu hilang pada 15 Mei
https://docs.x.ai/developers/models
Mungkin mereka sedang mengosongkan komputasi untuk dijual
Hanya saja model open source seperti Gemma dan Qwen membaik begitu cepat sehingga bahkan Anthropic pun tampaknya melihat ada risiko nyata terhadap nilai jangka panjang model dan alat mereka sendiri
Pada dasarnya, kalau saya Anthropic atau xAI, saya akan mencoba menghasilkan pendapatan dari semua tempat yang memungkinkan dan melihat mana yang bertahan
Dalam situasi yang sevolatil ini, tidak ada gunanya membidik dominasi monopoli
Bisa jadi ini cuma waktu GPU yang tadinya terbuang, tetapi bisa juga Anthropic memberi tawaran yang sulit ditolak
Ini spekulasi, tetapi kalau tawaran itu sesuatu yang Elon tidak bisa tolak, mungkin Anthropic setuju memberikan sebagian data pelatihan atau teknologi
Sulit melihat xAI sebagai lab yang benar-benar serius
Mereka akan mendapat informasi internal tentang cara kerja Claude, dan juga arus besar data penggunaan Claude
Semua ini tampaknya akan masuk ke pengembangan Grok di masa depan
Setelah mencoba Claude Code beberapa hari dan terus mentok limit, saya mau upgrade ke Max, tetapi di alur upgrade mereka meminta verifikasi identitas lewat Persona
Saya merasa itu masih oke dan mencoba membatalkan upgrade, tetapi akses Claude Code pada paket lama saya juga ikut diblokir, dan tidak bisa dibuka lagi kecuali saya menyelesaikan verifikasi identitas
Saya tidak akan pernah melakukannya, dan itu pengalaman yang benar-benar buruk
Kalau ada sisi baiknya, ini membuat saya sadar bahwa Deepseek jauh lebih murah dan untuk pekerjaan reverse engineering tingkatnya mirip
Ini kabar baik, tetapi saya tidak akan kembali
Anthropic sudah melakukan terlalu banyak kesalahan dalam waktu terlalu singkat dan kehilangan saya
Opus telah digantikan oleh GPT 5.5, DeepSeek, Kimi, dan Qwen, dan semuanya memungkinkan saya mengganti model dengan mudah sambil tetap memakai satu harness yang sama
Jika salah satu mulai bertingkah dengan cara yang sama, saya bisa langsung pindah