4 poin oleh GN⁺ 2026-02-05 | 1 komentar | Bagikan ke WhatsApp
  • Kecepatan pemrosesan model GPT-5.2 dan GPT-5.2-Codex meningkat 40% dibanding sebelumnya
  • Tumpukan inferensi dioptimalkan untuk semua pengguna API
  • Model dan bobotnya tetap sama, tetapi dengan latensi yang lebih rendah

1 komentar

 
GN⁺ 2026-02-05
Pendapat Hacker News
  • Selama sebulan terakhir, OpenAI telah merilis beberapa fitur untuk pengguna Codex

    • dukungan subagents
    • antarmuka multi-agent yang ditingkatkan (aplikasi Codex)
    • kecepatan inferensi 40% lebih cepat
      Dua fitur pertama saja sudah terasa seperti meningkatkan produktivitas 3x lipat. Sangat menantikan pembaruan ini
    • penasaran bagaimana subagents bekerja
    • ini adalah fitur khusus API
    • Kalau mencoba Claude, performanya meningkat di level x². Sepertinya OpenAI juga sedang waspada
  • Selama akhir pekan, saya menjalankan prompt yang sama di GPT-5.2, Gemini 3, Grok
    Gemini 3 dan Grok selesai dalam waktu kurang dari 2 menit di ‘thinking mode’, tetapi GPT-5.2 hanya jalan di tempat selama 6 menit

  • Baru-baru ini, disebutkan bahwa roon menyadari akun karyawan jauh lebih cepat daripada akun pengguna biasa
    Jadi mereka menyadari bahwa metode pemanggilan API internal bisa dijalankan lebih efisien daripada untuk pengguna biasa
    Pada akhirnya, pengguna biasa seperti hanya diproses dari kapasitas yang tersisa
    Tulisan terkait: Choose Your Fighter (The Zvi)

  • Menurut saya, OpenAI punya kebiasaan sengaja menurunkan kualitas setelah merilis model
    Versi web ChatGPT 5.2 awalnya jauh lebih bagus, tetapi setelah 1~2 minggu kualitasnya tiba-tiba turun
    Ini terlihat seperti strategi untuk menipu media dan benchmark
    Untuk meningkatkan kecepatan, mereka bisa saja cukup menurunkan intensitas inferensi, jadi klaim peningkatan 40% juga sulit dipercaya
    Bisa jadi ini semacam ‘akal-akalan’, misalnya awalnya memberi model Pro ke pengguna ChatGPT Plus lalu belakangan menggantinya ke Standard

    • Saya paham sudut pandang skeptis seperti itu, tetapi kami tidak melakukan tipu muslihat seperti itu
      Kami menjaga kualitas model tetap konsisten, dan jika ada laporan penurunan performa, kami langsung menyelidikinya
      Peningkatan kecepatan kali ini berasal dari perbaikan waktu pemrosesan per token, sementara kualitas model dan bobotnya tetap sama
    • Bukan hanya OpenAI yang seperti itu. Anthropic juga punya kasus serupa
      Referensi: Claude Code Tracker (MarginLab)
    • Akan bagus kalau ada situs benchmark harian untuk Codex
    • Cukup jalankan benchmark-nya lagi sendiri
  • Yang menarik, biaya inferensi di Cerebras jauh lebih mahal, tetapi harganya tetap dipertahankan

    • Namun kemungkinan besar ini bukan Cerebras.
      Kalau memang Cerebras, perilaku modelnya akan berbeda dan kecepatannya mungkin sekitar 10x lebih cepat
      Kemungkinan mereka menulis ulang kernel yang dioptimalkan untuk seri Blackwell
    • Hampir pasti ini tidak dijalankan di Cerebras
  • Kecepatan selalu menjadi keluhan terbesar, tetapi dengan peningkatan kali ini saya jadi terpikir untuk mencobanya lagi

  • Penasaran bagaimana mereka bisa mencapai peningkatan kecepatan seperti ini

  • Di Reddit juga ada banyak postingan yang bilang kualitasnya menurun

    • Tetapi postingan seperti itu muncul setiap hari di Reddit.
      Hal yang sama juga terjadi di subreddit Claude, tetapi hampir tidak ada bukti yang bisa dipercaya