1 poin oleh GN⁺ 2026-03-14 | 1 komentar | Bagikan ke WhatsApp
  • Claude Opus 4.6 dan Sonnet 4.6 kini mendukung jendela konteks 1 juta token (1M) dengan tarif standar, sehingga seluruh rentang dapat digunakan tanpa premium terpisah
  • Tarif tetap sama: Opus 4.6 dikenai $5/$25, Sonnet 4.6 $3/$15 (berdasarkan input/output), sehingga permintaan 9K maupun 900K dikenai rasio biaya yang sama
  • Batas input media meningkat 6x, memungkinkan pemrosesan hingga 600 gambar atau halaman PDF sekaligus, dan langsung tersedia juga di Azure Foundry·Google Vertex AI dan lainnya
  • Pengguna Max, Team, dan Enterprise di Claude Code dapat otomatis memanfaatkan konteks 1M, sehingga kompresi sesi berkurang dan daya ingat percakapan meningkat
  • Dinilai sebagai fitur yang meningkatkan akurasi dan efisiensi sambil mempertahankan konteks jangka panjang yang kompleks untuk codebase besar, kontrak, log operasional, dan lainnya

Ringkasan ketersediaan umum konteks 1M

  • Opus 4.6 dan Sonnet 4.6 menyediakan jendela konteks 1M di Claude Platform dengan tarif standar
    • Opus 4.6: $5 per juta token untuk input / $25 untuk output, Sonnet 4.6: $3/$15
    • Tidak ada perbedaan tarif berdasarkan ukuran permintaan
  • Premium untuk konteks panjang dihapus, dengan throughput yang sama di semua panjang konteks
  • Batas input media naik 6x: mendukung hingga 600 gambar atau halaman PDF
  • Header beta tidak lagi diperlukan, dan permintaan di atas 200K token diproses secara otomatis

Integrasi Claude Code

  • Paket Max, Team, dan Enterprise di Claude Code mengaktifkan konteks 1M secara otomatis saat menggunakan Opus 4.6
    • Pengurangan kompresi (compaction) percakapan dalam sesi
    • Sebelumnya memerlukan penggunaan tambahan, kini sudah termasuk secara default

Kinerja dan akurasi model

  • Opus 4.6 mencatat 78.3% pada MRCR v2, performa tertinggi di antara model dengan panjang konteks serupa
  • Bahkan pada konteks 1M, akurasi tetap terjaga dan performa pencarian dokumen panjang meningkat
  • Dapat memproses codebase besar, kontrak, log agen jangka panjang, dan lainnya sambil mempertahankan seluruh konteks apa adanya
    • Seluruh percakapan tetap dipertahankan tanpa ringkasan atau reset konteks

Contoh penggunaan nyata

  • Riset ilmiah: dapat menganalisis ratusan makalah, framework matematis, dan kode simulasi sekaligus dalam satu alur (Alex Wissner-Gross)
  • Pekerjaan legal: dapat membandingkan beberapa versi kontrak 100 halaman dalam satu sesi (Bardia Pourvakil)
  • Analisis sistem operasional: mempertahankan semua sinyal dan hipotesis sekaligus saat menangani insiden (Mayank Agarwal)
  • Riset AI dan code review: memproses file diff besar sekaligus untuk meningkatkan kualitas (Adhyyan Sekhsaria)
  • Analisis data dan debugging: menjaga detail tetap utuh saat menelusuri Datadog, database, dan source code (Anton Biryukov)
  • Peningkatan efisiensi agen: kejadian kompresi konteks berkurang 15%, dengan informasi awal tetap terjaga dalam sesi panjang (Jon Bell)

Platform yang didukung dan cara memulai

  • Konteks 1M langsung tersedia di Claude Platform, Amazon Bedrock, Google Cloud Vertex AI, dan Microsoft Foundry
  • Pengguna Claude Code Max, Team, dan Enterprise berbasis Opus 4.6 akan mendapatkan konteks 1M secara default
  • Detail lebih lanjut tersedia di halaman resmi documentation dan pricing

1 komentar

 
GN⁺ 2026-03-14
Komentar Hacker News
  • Opus 4.6 benar-benar luar biasa
    Frontend, backend, algoritma, pekerjaan apa pun yang dilemparkan bisa ditangani dengan baik
    Mulai dari PRD, menyusun rencana langkah demi langkah, lalu mengeksekusinya satu per satu, dalam beberapa jam sudah keluar hasil yang benar-benar berjalan
    Ini AI pertama yang membuatku berpikir, “sepertinya ini lebih pintar dariku”
    Selain itu, dengan teknologi saat ini kita bahkan bisa menjalankan beberapa agen secara bersamaan dengan kecepatan 1k token per detik

    • Aku juga ingin merasakan pengalaman seperti itu
      Aku meminta Claude Code berbasis Opus 4.6 untuk melakukan refactor kode React, tepatnya mengubah useState/useEffect → useMemo
      Rencananya sangat bagus, tetapi di beberapa bagian kode ia menaruh deklarasi variabel di tempat yang salah sehingga muncul referensi undefined
      Saat mencoba memperbaikinya, justru ia ingin mengubah struktur secara besar-besaran, jadi akhirnya aku membetulkannya manual
      Meski begitu, secara keseluruhan tetap menghemat waktu, tetapi pengalaman itu cukup menjengkelkan
    • Penasaran sebenarnya kamu sedang membuat apa
      Aku mencoba membuat test harness untuk tool diff database dengan Opus 4.6, tetapi malah menghasilkan test untuk tool lama yang tidak relevan
      Kode test-nya tidak memanggil fungsi yang sebenarnya, melainkan langsung mengimplementasikan logikanya
      Setelah menghabiskan 4 jam dan $75, aku akhirnya mendapatkan sesuatu yang nyaris jalan, tetapi kualitasnya buruk
      Di perusahaan juga ada arahan untuk menambah anggaran penggunaan Claude, tetapi semua orang tampaknya mengalami kesulitan yang mirip
      Saat ini, menggunakannya untuk edit sebagian atau debugging di VS Studio jauh lebih efisien
    • Aku pernah terjebak dalam AI loop
      Ini soal masalah perhitungan endapan yang menumpuk di wadah topografi, dan Opus terus mengulang tiga penjelasan yang saling bertentangan
      Setelah mencoba tiga kali, ia tetap masuk loop yang sama, jadi akhirnya aku memaksanya memakai pendekatan brute force
      Kalau manusia, rasanya pada percobaan kedua sudah tidak akan terjebak dalam loop seperti itu
    • Menurut standarku, Opus 4.6 sudah berada di level AGI
      Bukan sekadar mengikuti instruksi, tetapi juga secara mandiri mengusulkan ide perbaikan yang bahkan tidak diminta
  • Inti pembaruan kali ini adalah tarif standar diterapkan ke seluruh jendela 1M token dan dukungan 600 gambar/halaman PDF
    Ini perubahan besar bagi pengguna Claude Code

    • Aku ragu apakah benar-benar berguna memakai jendela 1M sampai penuh
      Bagiku, seperti riset Dex Horthy, menjaga di bawah 40% (sekitar 80k token) terasa lebih stabil
      Sebagai referensi, video “No vibes allowed” ada di sini
    • Di perusahaan kami, jendela 1M benar-benar dipakai untuk pekerjaan nyata
      Sampai 700k token masih oke, tetapi setelah itu mulai terasa sedikit melambat/tumpul
      Daripada otomatis penuh, memakainya dalam mode pair programming terasa lebih stabil
    • Semakin besar konteks, semakin besar biaya token input
      Input 800k biayanya 8 kali lipat dari 100k, jadi kalau cache tidak cocok, ini bisa menjadi ledakan biaya API
    • Ada yang bercanda, “Jadi satu gambar nilainya 1.666 kata ya?”
    • Dalam pengalamanku, pada jendela 1M kualitas coding turun drastis
      Model jadi sering lupa konteks di tengah percakapan
  • Ada pendapat bahwa lebih baik menulis kode langsung sendiri

  • Karierku berpindah dari Python ke C/C++
    Dalam Python, Opus kadang lebih baik dariku, tetapi di ranah embedded masih di level junior
    Pada akhirnya menurutku ini masalah kualitas data pelatihan
    Jadi sepertinya LLM belum akan menggantikan hardware engineer dalam waktu dekat

  • Aku membuat pengecekan CI untuk mencegah masalah thrashing pada kode buatan AI
    Sering kali agen berulang kali memperbaiki kegagalan test lalu malah menambahkan import khayalan atau API deprecated
    Karena itu, di setiap PR aku menjalankan pemindaian ringan untuk menangkap paket npm yang tidak ada atau keluar dari konteks
    Analisis statis yang ada biasanya hanya melihat sintaks, tetapi kode AI sering salah secara semantik
    Ke depan, menurutku validasi berbasis pengetahuan domain seperti ini akan menjadi keharusan

  • Ada posting yang bertanya kenapa performa turun di sekitar 100k token
    Banyak yang berpendapat bahwa konteks yang benar-benar bisa dipakai sebenarnya lebih kecil

    • Aku hampir tidak merasakan penurunan performa seperti itu di Opus 4.6
      Mungkin ini cuma ilusi karena pengalaman lama masih terbawa
    • Dalam pengalamanku, context rot masih tetap ada
      Saat memakai 90k token, entah 100k maupun 1M hasilnya memburuk dengan cara yang mirip
      Di codebase besar, kualitas prompt adalah kuncinya
    • Menurutku chart benchmark itu sendiri sudah menjadi jawabannya
    • Karena kompleksitas attention pada Transformer bertambah secara kuadrat terhadap ukuran konteks,
      untuk memproses 1M token harus dipakai berbagai teknik aproksimasi, dan itu mungkin penyebab penurunan performa
  • Di Claude Code 2.1.75, perbedaan antara Opus default dan Opus 1M menghilang
    Di paket Pro juga terlihat begitu, tetapi pada praktiknya tetap ada batasan
    Mungkin ini strategi Anthropic untuk merespons persaingan jendela 1M dari GPT 5.4

    • Di Max 20x masih ada sebagai model terpisah
    • Di Pro, konteks 1M masih dikenai biaya tambahan
  • Kebijakan harga Claude terasa aneh
    Paket 5X harganya persis 5 kali paket sebelumnya
    Biasanya pembelian volume mendapat diskon, tetapi di sini tidak

    • Anthropic tampaknya sudah berada dalam kondisi permintaan melebihi pasokan, jadi tidak perlu mendorong orang untuk memakai lebih banyak
      Bahkan mungkin mereka menilai lebih baik 5 orang berbagi daripada 1 orang memakai 5 kali lipat
    • Paket 5X hanya pemancing, dan strategi sebenarnya adalah menjual paket 20x
    • Ada yang bercanda, “nanti ketutup dari volume kok”
    • Ada juga pendapat bahwa kedua paket itu sama-sama penawaran bagus yang disubsidi
  • Setelah mencobanya hari ini, ini benar-benar perubahan yang menarik
    Sekarang beberapa sesi paralel sub-agen bisa dimasukkan ke dalam satu sesi master
    Opus 1M katanya setara dengan 256k di GPT 5.4, tetapi hampir tidak ada penurunan kualitas
    Hanya saja tidak jatuh drastis seperti model q4 ’25

    • Aku sering memakai Sonnet 4.5 1M, performanya mirip tetapi jauh lebih cepat
      Mungkin karena model itu dipakai lebih agresif tanpa terlalu menghemat token
    • Ada juga komentar yang bertanya apakah pembayarannya pribadi atau ditanggung perusahaan
      Katanya perusahaan hanya mendukung GitHub Copilot
  • Ada pertanyaan apakah sesi panjang cepat menghabiskan anggaran token
    Alasannya, makin panjang percakapan, makin banyak konteks lama yang terus dikirim ulang

    • Benar. Bahkan dengan cache, 800k token berarti sekitar $0.40 per permintaan, jadi cepat menumpuk
      Jika pemanggilan tool sering terjadi, tagihan bisa muncul beberapa kali per menit
    • Kalau context caching dimanfaatkan dengan baik, biaya bisa sangat ditekan
      Hingga 900k token bisa di-cache