GPT-5.2 dan GPT-5.2-Codex kini 40% lebih cepat
(twitter.com/OpenAIDevs)- Kecepatan pemrosesan model GPT-5.2 dan GPT-5.2-Codex meningkat 40% dibanding sebelumnya
- Tumpukan inferensi dioptimalkan untuk semua pengguna API
- Model dan bobotnya tetap sama, tetapi dengan latensi yang lebih rendah
1 komentar
Pendapat Hacker News
Selama sebulan terakhir, OpenAI telah merilis beberapa fitur untuk pengguna Codex
Dua fitur pertama saja sudah terasa seperti meningkatkan produktivitas 3x lipat. Sangat menantikan pembaruan ini
Selama akhir pekan, saya menjalankan prompt yang sama di GPT-5.2, Gemini 3, Grok
Gemini 3 dan Grok selesai dalam waktu kurang dari 2 menit di ‘thinking mode’, tetapi GPT-5.2 hanya jalan di tempat selama 6 menit
Baru-baru ini, disebutkan bahwa roon menyadari akun karyawan jauh lebih cepat daripada akun pengguna biasa
Jadi mereka menyadari bahwa metode pemanggilan API internal bisa dijalankan lebih efisien daripada untuk pengguna biasa
Pada akhirnya, pengguna biasa seperti hanya diproses dari kapasitas yang tersisa
Tulisan terkait: Choose Your Fighter (The Zvi)
Menurut saya, OpenAI punya kebiasaan sengaja menurunkan kualitas setelah merilis model
Versi web ChatGPT 5.2 awalnya jauh lebih bagus, tetapi setelah 1~2 minggu kualitasnya tiba-tiba turun
Ini terlihat seperti strategi untuk menipu media dan benchmark
Untuk meningkatkan kecepatan, mereka bisa saja cukup menurunkan intensitas inferensi, jadi klaim peningkatan 40% juga sulit dipercaya
Bisa jadi ini semacam ‘akal-akalan’, misalnya awalnya memberi model Pro ke pengguna ChatGPT Plus lalu belakangan menggantinya ke Standard
Kami menjaga kualitas model tetap konsisten, dan jika ada laporan penurunan performa, kami langsung menyelidikinya
Peningkatan kecepatan kali ini berasal dari perbaikan waktu pemrosesan per token, sementara kualitas model dan bobotnya tetap sama
Referensi: Claude Code Tracker (MarginLab)
Yang menarik, biaya inferensi di Cerebras jauh lebih mahal, tetapi harganya tetap dipertahankan
Kalau memang Cerebras, perilaku modelnya akan berbeda dan kecepatannya mungkin sekitar 10x lebih cepat
Kemungkinan mereka menulis ulang kernel yang dioptimalkan untuk seri Blackwell
Kecepatan selalu menjadi keluhan terbesar, tetapi dengan peningkatan kali ini saya jadi terpikir untuk mencobanya lagi
Penasaran bagaimana mereka bisa mencapai peningkatan kecepatan seperti ini
Di Reddit juga ada banyak postingan yang bilang kualitasnya menurun
Hal yang sama juga terjadi di subreddit Claude, tetapi hampir tidak ada bukti yang bisa dipercaya