- Claude Opus 4.6 dan Sonnet 4.6 kini mendukung jendela konteks 1 juta token (1M) dengan tarif standar, sehingga seluruh rentang dapat digunakan tanpa premium terpisah
- Tarif tetap sama: Opus 4.6 dikenai $5/$25, Sonnet 4.6 $3/$15 (berdasarkan input/output), sehingga permintaan 9K maupun 900K dikenai rasio biaya yang sama
- Batas input media meningkat 6x, memungkinkan pemrosesan hingga 600 gambar atau halaman PDF sekaligus, dan langsung tersedia juga di Azure Foundry·Google Vertex AI dan lainnya
- Pengguna Max, Team, dan Enterprise di Claude Code dapat otomatis memanfaatkan konteks 1M, sehingga kompresi sesi berkurang dan daya ingat percakapan meningkat
- Dinilai sebagai fitur yang meningkatkan akurasi dan efisiensi sambil mempertahankan konteks jangka panjang yang kompleks untuk codebase besar, kontrak, log operasional, dan lainnya
Ringkasan ketersediaan umum konteks 1M
- Opus 4.6 dan Sonnet 4.6 menyediakan jendela konteks 1M di Claude Platform dengan tarif standar
- Opus 4.6: $5 per juta token untuk input / $25 untuk output, Sonnet 4.6: $3/$15
- Tidak ada perbedaan tarif berdasarkan ukuran permintaan
- Premium untuk konteks panjang dihapus, dengan throughput yang sama di semua panjang konteks
- Batas input media naik 6x: mendukung hingga 600 gambar atau halaman PDF
- Header beta tidak lagi diperlukan, dan permintaan di atas 200K token diproses secara otomatis
Integrasi Claude Code
- Paket Max, Team, dan Enterprise di Claude Code mengaktifkan konteks 1M secara otomatis saat menggunakan Opus 4.6
- Pengurangan kompresi (compaction) percakapan dalam sesi
- Sebelumnya memerlukan penggunaan tambahan, kini sudah termasuk secara default
Kinerja dan akurasi model
- Opus 4.6 mencatat 78.3% pada MRCR v2, performa tertinggi di antara model dengan panjang konteks serupa
- Bahkan pada konteks 1M, akurasi tetap terjaga dan performa pencarian dokumen panjang meningkat
- Dapat memproses codebase besar, kontrak, log agen jangka panjang, dan lainnya sambil mempertahankan seluruh konteks apa adanya
- Seluruh percakapan tetap dipertahankan tanpa ringkasan atau reset konteks
Contoh penggunaan nyata
- Riset ilmiah: dapat menganalisis ratusan makalah, framework matematis, dan kode simulasi sekaligus dalam satu alur (Alex Wissner-Gross)
- Pekerjaan legal: dapat membandingkan beberapa versi kontrak 100 halaman dalam satu sesi (Bardia Pourvakil)
- Analisis sistem operasional: mempertahankan semua sinyal dan hipotesis sekaligus saat menangani insiden (Mayank Agarwal)
- Riset AI dan code review: memproses file diff besar sekaligus untuk meningkatkan kualitas (Adhyyan Sekhsaria)
- Analisis data dan debugging: menjaga detail tetap utuh saat menelusuri Datadog, database, dan source code (Anton Biryukov)
- Peningkatan efisiensi agen: kejadian kompresi konteks berkurang 15%, dengan informasi awal tetap terjaga dalam sesi panjang (Jon Bell)
Platform yang didukung dan cara memulai
- Konteks 1M langsung tersedia di Claude Platform, Amazon Bedrock, Google Cloud Vertex AI, dan Microsoft Foundry
- Pengguna Claude Code Max, Team, dan Enterprise berbasis Opus 4.6 akan mendapatkan konteks 1M secara default
- Detail lebih lanjut tersedia di halaman resmi documentation dan pricing
1 komentar
Komentar Hacker News
Opus 4.6 benar-benar luar biasa
Frontend, backend, algoritma, pekerjaan apa pun yang dilemparkan bisa ditangani dengan baik
Mulai dari PRD, menyusun rencana langkah demi langkah, lalu mengeksekusinya satu per satu, dalam beberapa jam sudah keluar hasil yang benar-benar berjalan
Ini AI pertama yang membuatku berpikir, “sepertinya ini lebih pintar dariku”
Selain itu, dengan teknologi saat ini kita bahkan bisa menjalankan beberapa agen secara bersamaan dengan kecepatan 1k token per detik
Aku meminta Claude Code berbasis Opus 4.6 untuk melakukan refactor kode React, tepatnya mengubah useState/useEffect → useMemo
Rencananya sangat bagus, tetapi di beberapa bagian kode ia menaruh deklarasi variabel di tempat yang salah sehingga muncul referensi undefined
Saat mencoba memperbaikinya, justru ia ingin mengubah struktur secara besar-besaran, jadi akhirnya aku membetulkannya manual
Meski begitu, secara keseluruhan tetap menghemat waktu, tetapi pengalaman itu cukup menjengkelkan
Aku mencoba membuat test harness untuk tool diff database dengan Opus 4.6, tetapi malah menghasilkan test untuk tool lama yang tidak relevan
Kode test-nya tidak memanggil fungsi yang sebenarnya, melainkan langsung mengimplementasikan logikanya
Setelah menghabiskan 4 jam dan $75, aku akhirnya mendapatkan sesuatu yang nyaris jalan, tetapi kualitasnya buruk
Di perusahaan juga ada arahan untuk menambah anggaran penggunaan Claude, tetapi semua orang tampaknya mengalami kesulitan yang mirip
Saat ini, menggunakannya untuk edit sebagian atau debugging di VS Studio jauh lebih efisien
Ini soal masalah perhitungan endapan yang menumpuk di wadah topografi, dan Opus terus mengulang tiga penjelasan yang saling bertentangan
Setelah mencoba tiga kali, ia tetap masuk loop yang sama, jadi akhirnya aku memaksanya memakai pendekatan brute force
Kalau manusia, rasanya pada percobaan kedua sudah tidak akan terjebak dalam loop seperti itu
Bukan sekadar mengikuti instruksi, tetapi juga secara mandiri mengusulkan ide perbaikan yang bahkan tidak diminta
Inti pembaruan kali ini adalah tarif standar diterapkan ke seluruh jendela 1M token dan dukungan 600 gambar/halaman PDF
Ini perubahan besar bagi pengguna Claude Code
Bagiku, seperti riset Dex Horthy, menjaga di bawah 40% (sekitar 80k token) terasa lebih stabil
Sebagai referensi, video “No vibes allowed” ada di sini
Sampai 700k token masih oke, tetapi setelah itu mulai terasa sedikit melambat/tumpul
Daripada otomatis penuh, memakainya dalam mode pair programming terasa lebih stabil
Input 800k biayanya 8 kali lipat dari 100k, jadi kalau cache tidak cocok, ini bisa menjadi ledakan biaya API
Model jadi sering lupa konteks di tengah percakapan
Ada pendapat bahwa lebih baik menulis kode langsung sendiri
Karierku berpindah dari Python ke C/C++
Dalam Python, Opus kadang lebih baik dariku, tetapi di ranah embedded masih di level junior
Pada akhirnya menurutku ini masalah kualitas data pelatihan
Jadi sepertinya LLM belum akan menggantikan hardware engineer dalam waktu dekat
Aku membuat pengecekan CI untuk mencegah masalah thrashing pada kode buatan AI
Sering kali agen berulang kali memperbaiki kegagalan test lalu malah menambahkan import khayalan atau API deprecated
Karena itu, di setiap PR aku menjalankan pemindaian ringan untuk menangkap paket npm yang tidak ada atau keluar dari konteks
Analisis statis yang ada biasanya hanya melihat sintaks, tetapi kode AI sering salah secara semantik
Ke depan, menurutku validasi berbasis pengetahuan domain seperti ini akan menjadi keharusan
Ada posting yang bertanya kenapa performa turun di sekitar 100k token
Banyak yang berpendapat bahwa konteks yang benar-benar bisa dipakai sebenarnya lebih kecil
Mungkin ini cuma ilusi karena pengalaman lama masih terbawa
Saat memakai 90k token, entah 100k maupun 1M hasilnya memburuk dengan cara yang mirip
Di codebase besar, kualitas prompt adalah kuncinya
untuk memproses 1M token harus dipakai berbagai teknik aproksimasi, dan itu mungkin penyebab penurunan performa
Di Claude Code 2.1.75, perbedaan antara Opus default dan Opus 1M menghilang
Di paket Pro juga terlihat begitu, tetapi pada praktiknya tetap ada batasan
Mungkin ini strategi Anthropic untuk merespons persaingan jendela 1M dari GPT 5.4
Kebijakan harga Claude terasa aneh
Paket 5X harganya persis 5 kali paket sebelumnya
Biasanya pembelian volume mendapat diskon, tetapi di sini tidak
Bahkan mungkin mereka menilai lebih baik 5 orang berbagi daripada 1 orang memakai 5 kali lipat
Setelah mencobanya hari ini, ini benar-benar perubahan yang menarik
Sekarang beberapa sesi paralel sub-agen bisa dimasukkan ke dalam satu sesi master
Opus 1M katanya setara dengan 256k di GPT 5.4, tetapi hampir tidak ada penurunan kualitas
Hanya saja tidak jatuh drastis seperti model q4 ’25
Mungkin karena model itu dipakai lebih agresif tanpa terlalu menghemat token
Katanya perusahaan hanya mendukung GitHub Copilot
Ada pertanyaan apakah sesi panjang cepat menghabiskan anggaran token
Alasannya, makin panjang percakapan, makin banyak konteks lama yang terus dikirim ulang
Jika pemanggilan tool sering terjadi, tagihan bisa muncul beberapa kali per menit
Hingga 900k token bisa di-cache