1 poin oleh GN⁺ 1 jam lalu | 1 komentar | Bagikan ke WhatsApp
  • Anthropic mengumumkan akan memperluas batas penggunaan Claude Code dan Claude API melalui kemitraan dengan SpaceX serta sejumlah kontrak komputasi yang baru ditandatangani
  • Batas penggunaan 5 jam untuk Claude Code digandakan (paket Pro, Max, Team, dan Enterprise berbasis kursi), dan pengurangan batas pada jam sibuk untuk akun Pro dan Max dihapus
  • API rate limits untuk model Claude Opus juga dinaikkan secara signifikan, dan kapasitas tambahan ini secara langsung meningkatkan ketersediaan penggunaan bagi pelanggan Claude Pro dan Claude Max
  • Anthropic menandatangani kontrak untuk menggunakan seluruh kapasitas komputasi di pusat data Colossus 1 milik SpaceX, sehingga dalam sebulan mendapatkan akses ke kapasitas baru lebih dari 300MW dan lebih dari 220.000 NVIDIA GPU
  • Ekspansi komputasi Anthropic ini berlangsung selain kontrak dengan Amazon, Google dan Broadcom, Microsoft dan NVIDIA, serta Fluidstack, sambil juga mempertimbangkan infrastruktur lokal, beban biaya listrik, dan investasi komunitas setempat

Perluasan batas penggunaan Claude

  • Anthropic meningkatkan batas penggunaan Claude Code dan Claude API melalui kemitraan dengan SpaceX serta sejumlah kontrak komputasi yang baru ditandatangani
  • Ketiga perubahan ini semuanya berlaku mulai hari pengumuman
  • Batas penggunaan 5 jam untuk Claude Code digandakan pada paket Pro, Max, Team, dan Enterprise berbasis kursi
  • Untuk akun Pro dan Max, pengurangan batas pada jam sibuk di Claude Code dihapus
  • API rate limits untuk model Claude Opus juga dinaikkan secara signifikan

Kemitraan komputasi baru dengan SpaceX

  • Anthropic menandatangani kontrak untuk menggunakan seluruh kapasitas komputasi di pusat data Colossus 1 milik SpaceX
  • Melalui kontrak ini, dalam sebulan Anthropic akan mendapatkan akses ke kapasitas baru lebih dari 300MW dan lebih dari 220.000 NVIDIA GPU
  • Kapasitas tambahan ini secara langsung meningkatkan ketersediaan penggunaan bagi pelanggan Claude Pro dan Claude Max
  • Kontrak ini menambah pengumuman ekspansi komputasi besar Anthropic yang sudah ada sebelumnya
  • Pelatihan dan inferensi Claude menggunakan berbagai perangkat keras AI seperti AWS Trainium, Google TPUs, dan NVIDIA GPUs
  • Anthropic terus mencari peluang untuk mendapatkan kapasitas tambahan secara online
  • Sebagai bagian dari kontrak dengan SpaceX, Anthropic juga menyatakan minat untuk bekerja sama dengan SpaceX dalam mengembangkan kapasitas komputasi AI orbital berskala beberapa GW

Ekspansi internasional dan infrastruktur lokal

  • Pelanggan enterprise di industri yang sangat teregulasi seperti layanan keuangan, kesehatan, dan pemerintah semakin membutuhkan infrastruktur lokal untuk memenuhi persyaratan kepatuhan dan residensi data
  • Karena itu, sebagian ekspansi kapasitas Anthropic dilakukan secara internasional
  • Kerja sama yang baru diumumkan dengan Amazon mencakup tambahan kapasitas inferensi di Asia dan Eropa
  • Wilayah untuk menambah kapasitas dipilih dengan hati-hati, dan Anthropic bekerja sama dengan negara demokrasi yang memiliki kerangka hukum dan regulasi yang dapat mendukung investasi berskala besar
  • Keamanan rantai pasok untuk perangkat keras, jaringan, dan fasilitas yang dibutuhkan komputasi juga menjadi kriteria penting

Biaya listrik dan investasi komunitas

  • Anthropic baru-baru ini mengumumkan komitmen untuk menanggung kenaikan tarif listrik konsumen jika pusat data di AS menyebabkan tarif tersebut naik
  • Sebagai bagian dari ekspansi internasional, Anthropic sedang meninjau cara memperluas komitmen ini ke yurisdiksi baru
  • Anthropic juga mendorong upaya untuk bekerja sama dengan pemimpin lokal agar bisa berinvestasi kembali ke komunitas tempat fasilitas berada

1 komentar

 
GN⁺ 1 jam lalu
Komentar Hacker News
  • Ekonomi AI tampaknya akan bergerak ke arah ini: inferensi akan makin murah, dan seiring akselerator khusus masuk ke pasar, persaingan harga akan dimulai
    Sementara itu pelatihan akan tetap mahal, sehingga Anthropic/OpenAI akan bergerak ke sisi bisnis pelatihan
    Model akan menjadi aset yang bisa disewa per unit atau dibeli, dan pengguna akan menjalankannya di perangkat keras inferensi, menyewa perangkat keras inferensi, atau memilikinya sendiri
    Atau akan ada struktur di mana pengguna membayar premi kepada perusahaan yang mengurus semua itu untuk mereka
  • Skala 300 megawatt kapasitas baru dan lebih dari 220 ribu GPU NVIDIA benar-benar sangat besar hingga sulit dipercaya
    Bahkan hanya untuk sisi inferensi model terbaru seperti Opus, saya penasaran apakah ada tulisan blog atau semacamnya yang membahas infrastruktur seperti apa yang dipakai
    Mungkin itu rahasia, tetapi kalau modelnya bisa dipakai langsung lewat AWS Bedrock, rasanya itu setidaknya memberi sedikit petunjuk
    • Mungkin yang dimaksud adalah infrastruktur komputasi, tapi sisi infrastruktur listrik juga menarik
      Pusat data kadang dijalankan dengan cara yang bodoh karena kecepatan ekspansi operasional lebih penting daripada biaya
      Ada regulasi perusahaan listrik, dan ada hal-hal seperti laju ramping untuk mencegah kerusakan jaringan listrik, tetapi dijelaskan bahwa pusat data melanggar hal-hal ini secara serius
      Variasi bebannya besar, mereka menyuplai daya dengan pembangkit gas alam di belakang meteran, dan ada cerita bahwa poros yang seharusnya bertahan 7 tahun hanya bertahan 10 bulan karena siklus hidup-mati berulang
      https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
      Untuk sisi komputasi, NVIDIA punya desain referensi standar
      https://www.nvidia.com/en-us/technologies/enterprise-referen...
      Saya belum melihat detailnya, tetapi tampaknya akan ada jaringan antar-GPU dari Mellanox, kode kustom skala besar untuk membagi tensor ke GPU, dan kode untuk memindahkan aktivasi antar node GPU
    • Itu tidak persis bekerja seperti itu
      Anthropic meng-host modelnya di dalam AWS Bedrock sebagai layanan terkelola, dan pelanggan memanggil LLM seperti memanggil API lain
      Infrastruktur AWS mana yang menangani permintaan API itu tidak terlihat
  • Fakta bahwa Anthropic menyewa pusat data yang dibangun Elon untuk Grok terasa seperti plot twist yang tak mungkin dikarang
    • Dari sudut pandang SpaceX, ini cukup cerdas
      Mereka mengubah aset yang dibuat untuk Grok, yang sangat boros uang, menjadi sumber pendapatan yang cukup besar sebelum IPO
    • Merger itu terlihat cukup jelas sebagai cara untuk menenangkan investor sambil diam-diam menutup xAI
      Pada saat yang sama, itu juga dipakai sebagai sarana untuk membebankan utang Twitter ke publik, jadi akuntan mereka jelas kompeten
    • Ini adalah twist yang masuk akal bagi kedua perusahaan
      Anthropic mendapatkan komputasi yang sangat mereka butuhkan untuk terus tumbuh, Elon menyewakan komputasi yang tidak bisa dipakai xAI dengan baik karena permintaan Grok rendah, dan SpaceX bisa mencatat pendapatan di pembukuannya untuk IPO
      Kalimat “kami akan menambah kapasitas secara hati-hati dengan bekerja sama dengan negara-negara demokratis yang memiliki kerangka hukum dan regulasi untuk mendukung investasi sebesar ini” jika diterjemahkan ke bahasa dunia nyata kira-kira berarti “kami akan memprioritaskan laba di atas segalanya”
      Elon adalah figur sayap kanan yang mendukung Trump dan Trump juga tidak terlalu demokratis, tetapi maksudnya adalah kami benar-benar butuh lebih banyak uang
      Rasanya ini juga dimaksudkan agar orang lupa bahwa xAI menerima dana dari pemerintahan non-demokratis di Timur Tengah, dan kalau bisa menjual model Anthropic, mereka tampaknya juga akan membeli komputasi dari China
  • Bagian dalam sebulan adalah titik yang paling bikin kepala pening
    Pusat data bukanlah peralatan plug-and-play dengan spesifikasi rapi dan antarmuka standar internasional
  • Kalimat “sebagai bagian dari perjanjian ini, mereka juga menyatakan minat untuk bekerja sama dengan SpaceX dalam mengembangkan kapasitas komputasi AI orbital berskala beberapa gigawatt” membuat saya berpikir salah satu dari dua hal: Anthropic memandang bisnis luar angkasa ini lebih serius daripada publik umum, atau memasukkan kalimat ini adalah syarat kontrak untuk mendapatkan komputasi
    • Saya 100% setuju dengan dugaan bahwa memasukkan kalimat itu adalah syarat kontrak untuk mendapatkan komputasi
    • Anthropic membutuhkan semua komputasi yang bisa didapatkan
      Kalau Elon ingin membangun pusat data orbital, Anthropic dengan senang hati akan menjalankan modelnya di sana
      Tidak banyak alasan untuk meragukan bahwa Elon bisa membangun pusat data orbital; pertanyaannya adalah apakah itu ekonomis dibandingkan infrastruktur berbasis darat
    • Saya tidak yakin komputasi luar angkasa akan berhasil, tetapi tentu saja orang bisa bilang, “kalau nanti ditawarkan dengan harga bagus, kami akan membelinya dengan senang hati”
      Kalau jadi, ya jadi; kalau tidak, ya tidak
    • Ini terlihat seperti menjilat orang berkuasa
      Sebagai bagian dari kontrak untuk mendapat akses ke pusat data darat, mereka memoles komputasi orbital luar angkasa yang jelas-jelas muluk seolah-olah itu lebih dari kenyataannya
      Saya bisa percaya sesuatu seperti itu mungkin akan ada suatu hari nanti, tetapi seperti FSD, sama sekali tidak terlihat dekat dengan kenyataan
      Biaya untuk mengatakan itu hampir nol, dan nanti mereka tinggal bilang minatnya hilang
      Kalau pun ada biaya, paling sedikit reputasi
    • Sebagian besar CEO perusahaan teknologi besar pernah mengatakan hal semacam ini
  • Pusat data Colossus 1 adalah tempat yang memakai listrik ilegal, mencemari udara di lingkungan miskin dekat Memphis, dan bahkan berpotensi mencemari air
    Dengan menambah permintaan pada jaringan listrik, tempat ini juga sangat mungkin meningkatkan risiko warga saat cuaca ekstrem dengan memicu pemadaman besar
    https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
    Jadi meskipun Anthropic banyak bicara soal keselamatan, mereka juga bisa dimasukkan ke daftar perusahaan yang memprioritaskan laba di atas keselamatan
    • Kata ilegal di sini cukup keras
      Bahkan tautan Wikipedia yang disertakan mengatakan mungkin ada nuansa soal perizinan, tetapi saya tidak melihat klaim bahwa listriknya “ilegal”
    • Saya tidak paham bagaimana pusat data bisa mencemari air
      Mereka tidak memproduksi bahan kimia dan tidak melakukan hal seperti itu
    • Tidak semua tuduhan yang muncul di media cetak itu benar
      Kita harus sangat skeptis terhadap tuduhan seperti ini, dan terutama ketika perusahaan besar terlibat, klaim kerugian yang “terdengar masuk akal dan terus diulang” saja bisa memicu gugatan atau tekanan untuk berdamai
    • Setelah saya cari, tampaknya sebagian besar pusat data hampir tidak membayar pajak negara bagian atas pendapatan yang dihasilkan oleh pusat data itu
      Kalau benar, ini celah pajak yang luar biasa besar, dan tidak mengherankan investasi modal pada pusat data begitu tinggi
      [0] https://www.datacenterknowledge.com/regulations/how-are-data...
  • Melipatgandakan batas laju 5 jam hanyalah pemasaran kalau mereka tidak juga menggandakan batas mingguan
    Itu cuma berarti Anda bisa mencapai batas mingguan dalam 3 hari, bukan 5 hari
    • Saya belum pernah mendekati batas mingguan, tetapi sering kena batas per jam
    • Sejak naik ke paket $100, dalam 5 bulan terakhir saya rasa saya belum pernah kena salah satu dari dua batas itu
      Pada minggu-minggu saat banyak dipakai, saya cenderung memakainya terus lebih dari 6 jam per hari
      Tetapi saya cukup disiplin untuk selalu menjaga sesi di bawah 200 ribu hingga 250 ribu token
    • Secara pribadi saya memakai langganan dasar Claude Code, dan menggunakannya untuk menyegarkan pikiran sambil coding 1–2 jam pada malam hari kerja atau akhir pekan
      Saya memakainya sekitar 3–5 sesi per minggu
      Kalau pekerjaannya lebih rumit, saya cepat menghabiskan jendela 5 jam itu sehingga terasa menjengkelkan, tetapi saya belum pernah mencapai batas mingguan
      Saya rasa ada cukup banyak orang seperti saya
    • Betul, faktor pembatas yang sebenarnya adalah batas mingguan
      Kalau benar-benar dipaksa, bahkan batas mingguan paket Max $200 per bulan bisa habis dengan mudah dalam sehari
    • Berdasarkan Opus 4.6 yang entah kenapa masih saya pakai dengan keras kepala, dalam alur kerja saya sekitar 10% dari penggunaan mingguan bisa habis dalam satu jendela 5 jam
      Di kepala saya, penggunaan mingguan itu saya hitung per hari, jadi sekitar 14% per hari, sehingga di awal minggu saya berusaha memakai lebih sedikit dan di akhir minggu sedikit lebih bebas menghabiskannya
      Lalu pada dua hari terakhir saya malah sibuk memikirkan bagaimana cara menghabiskan jatah yang tersimpan
      Jendela 5 jam justru membuat ini lebih sulit, dan pada hari terakhir minggu itu saya jadi berusaha memasukkan 10% pada setiap jendela 5 jam selama saya masih bangun, dan saya benar-benar membencinya
      Saya ingin bekerja pada waktu ketika saya paling produktif, bukan menyesuaikan diri dengan jendela waktu yang konyol
      Saya tidak ingin berpikir seperti, “sepertinya saya akan paling banyak memakai Claude pukul 11 pagi, jadi saya harus mengirim pesan bodoh ke Haiku pukul 7:30 pagi supaya jendela 5 jam mulai dan bergeser lagi pada pukul 12:30”
      Jadi saya senang dengan perubahan ini, tetapi ini tetap hanya sedikit meredakan masalah yang 100% mereka ciptakan sendiri sambil berpura-pura sedang berbuat baik kepada pengguna
      Saya paham maksud mereka ingin menurunkan pemakaian pada jam sibuk, tetapi saya tetap tidak suka
  • Mereka bilang akan menggandakan batas laju 5 jam Claude Code untuk paket Pro, Max, Team, dan Enterprise berbasis kursi, menghapus pengurangan batas pada jam sibuk untuk Pro dan Max, serta sangat menaikkan batas laju API untuk model Claude Opus
    Pada akhirnya, ini terlihat seperti Elon menyerah pada xAI dan beralih ke menjual komputasi
    • Saya tidak tahu apakah ini terkait dengan pusat data yang sama, tetapi pengumuman ini datang hanya beberapa jam setelah sejumlah model Grok yang masih baru dihentikan setelah pengumuman singkat
      Grok 4.1 Fast adalah cara termurah untuk melakukan riset di X, bahkan lebih murah daripada X API, tetapi model itu hilang pada 15 Mei
      https://docs.x.ai/developers/models
      Mungkin mereka sedang mengosongkan komputasi untuk dijual
    • Saya rasa belum bisa dipastikan bahwa Elon menyerah pada xAI
      Hanya saja model open source seperti Gemma dan Qwen membaik begitu cepat sehingga bahkan Anthropic pun tampaknya melihat ada risiko nyata terhadap nilai jangka panjang model dan alat mereka sendiri
      Pada dasarnya, kalau saya Anthropic atau xAI, saya akan mencoba menghasilkan pendapatan dari semua tempat yang memungkinkan dan melihat mana yang bertahan
      Dalam situasi yang sevolatil ini, tidak ada gunanya membidik dominasi monopoli
    • Detailnya rahasia
      Bisa jadi ini cuma waktu GPU yang tadinya terbuang, tetapi bisa juga Anthropic memberi tawaran yang sulit ditolak
      Ini spekulasi, tetapi kalau tawaran itu sesuatu yang Elon tidak bisa tolak, mungkin Anthropic setuju memberikan sebagian data pelatihan atau teknologi
    • Sejujurnya ini mungkin ide yang bagus
      Sulit melihat xAI sebagai lab yang benar-benar serius
    • Saya rasa ini bukan menyerah
      Mereka akan mendapat informasi internal tentang cara kerja Claude, dan juga arus besar data penggunaan Claude
      Semua ini tampaknya akan masuk ke pengembangan Grok di masa depan
  • Saya berharap tahu kabar ini dua hari lebih awal
    Setelah mencoba Claude Code beberapa hari dan terus mentok limit, saya mau upgrade ke Max, tetapi di alur upgrade mereka meminta verifikasi identitas lewat Persona
    Saya merasa itu masih oke dan mencoba membatalkan upgrade, tetapi akses Claude Code pada paket lama saya juga ikut diblokir, dan tidak bisa dibuka lagi kecuali saya menyelesaikan verifikasi identitas
    Saya tidak akan pernah melakukannya, dan itu pengalaman yang benar-benar buruk
    Kalau ada sisi baiknya, ini membuat saya sadar bahwa Deepseek jauh lebih murah dan untuk pekerjaan reverse engineering tingkatnya mirip
  • Karena batasan itu saya akhirnya membatalkan langganan dan mengubah alur kerja saya sepenuhnya menjadi agnostik terhadap model dengan pi
    Ini kabar baik, tetapi saya tidak akan kembali
    Anthropic sudah melakukan terlalu banyak kesalahan dalam waktu terlalu singkat dan kehilangan saya
    Opus telah digantikan oleh GPT 5.5, DeepSeek, Kimi, dan Qwen, dan semuanya memungkinkan saya mengganti model dengan mudah sambil tetap memakai satu harness yang sama
    Jika salah satu mulai bertingkah dengan cara yang sama, saya bisa langsung pindah