18 poin oleh princox 2026-03-10 | 7 komentar | Bagikan ke WhatsApp

Baru-baru ini ada posting menarik di r/codex.
Seorang pengguna yang memakai GPT-5.4 di ChatGPT Pro + Codex mengajukan pertanyaan karena konteks yang muncul hanya 258K.
"Saya dengar GPT-5.4 punya konteks 1M, lalu kenapa yang muncul cuma 258K?"
Sebenarnya, saat dicek di Codex CLI atau IDE, konteks default memang kadang ditampilkan sekitar 258K.

Solusi yang muncul di komentar adalah menambahkan pengaturan config secara langsung.

Contoh:

model_context_window=800000
model_auto_compact_token_limit=700000

Jika ini ditambahkan ke config.toml, ada pengguna yang membagikan pengalaman bahwa konteks bisa diperluas hingga sekitar 800K.

Beberapa poin:
• GPT-5.4 diketahui mendukung konteks maksimum sekitar 1M token
• Namun, di lingkungan Codex, pengaturan default kadang dimulai dalam kondisi dibatasi sekitar 258K
• Jika nilai config diubah, konteks yang lebih besar bisa digunakan

Selain itu, para pengguna juga berpendapat bahwa jika pengaturannya terlalu mendekati batas maksimum, performa bisa menurun, sehingga lebih baik memberi sedikit ruang.

Hal yang menurut saya pribadi menarik

Seiring alat AI makin kompleks,
tampaknya semakin sering terjadi bahwa
"spesifikasi model = pengaturan default yang benar-benar dipakai" bukanlah hal yang otomatis berlaku.

Khususnya di lingkungan seperti agentic coding / Codex, sepertinya cukup sering kita harus menyentuh pengaturan secara langsung agar performanya benar-benar keluar.

Adakah yang sudah mencoba memakai long context (500K~1M) secara nyata di Codex atau CLI?
Saya juga penasaran apakah dampaknya benar-benar terasa dalam workflow pengembangan sehari-hari.

7 komentar

 
gmlwo530 5 hari lalu

Ada masalah saat menggunakan model_context_window=800000: mulai dari titik ketika 50% context sudah terpakai, jawaban atas pertanyaan justru berubah menjadi lanjutan dari jawaban atas pertanyaan sebelumnya. Harap diperhatikan.

 
ujinyang 2026-03-10

Kalau naik melebihi angka itu, katanya harga token jadi dua kali lipat, jadi sebaiknya Anda cek dulu.

 
apkas 2026-03-10

Saya sudah mencobanya; performa gpt-5.4 sendiri sangat memuaskan, tetapi kadang model ini menghasilkan jawaban untuk pesan yang lebih lama alih-alih pesan tepat sebelumnya, jadi belum bisa dibilang sangat stabil. Ada juga laporan bahwa saat memakai long context, performanya pada tugas needle in the haystack turun hingga di bawah 50%, jadi saya pribadi tidak terlalu ingin merekomendasikannya. Meski begitu, saya juga tidak yakin apakah tugas needle in the haystack sendiri memang benchmark yang tepat untuk mengukur performa long-context. Bagaimanapun, Codex tidak butuh waktu lama untuk compaction, dan setelah compact pun konteksnya juga tidak mudah lupa, jadi dipakai begitu saja pun tidak terlalu merepotkan.

 
sea715 2026-03-10

Kalau ada harness yang tepat, sepertinya hasilnya tetap tidak buruk. Karena compaction itu sendiri jadi lebih sedikit, masalah hilangnya informasi di tengah juga berkurang..

 
mwma91 2026-03-13

Saya bahkan tidak tahu kalau konteks 1M itu memungkinkan.

 
princox 2026-03-10

Saya juga mengonfirmasi bahwa ini berlaku sama persis pada aplikasi codex untuk macOS.

 
click 2026-03-10

Ah.. pantas saja saya juga merasa context window-nya terlalu kecil, ternyata memang harus diatur secara terpisah.