- Composer yang diperkenalkan Cursor adalah model agen cerdas berkecepatan tinggi untuk rekayasa perangkat lunak, yang mencapai kecepatan pembuatan kode 4 kali lebih cepat dibanding model serupa
- Model ini dilatih untuk memecahkan masalah nyata pada codebase skala besar, dan menggunakan alat pencarian serta penyuntingan untuk menangani tugas dengan berbagai tingkat kesulitan
- Dengan menggabungkan arsitektur Mixture-of-Experts(MoE) dan pembelajaran penguatan(RL), model ini mendukung pemahaman dan generasi konteks panjang untuk penyuntingan kode, perencanaan, dan pemberian jawaban
- Melalui evaluasi Cursor Bench, diukur bukan hanya akurasi model tetapi juga konsistensi codebase serta kepatuhan pada praktik rekayasa
- Dengan memanfaatkan infrastruktur RL asinkron berbasis PyTorch·Ray dan pelatihan presisi rendah MXFP8, pelatihan efisien di ribuan GPU serta peningkatan kecepatan inferensi dapat dicapai
Ikhtisar Composer
- Composer adalah model agen baru yang dikembangkan dengan tujuan kecerdasan dan kecepatan untuk rekayasa perangkat lunak
- Dalam benchmark, model ini mencatat kecepatan pembuatan kode 4 kali lebih cepat dibanding model serupa
- Di dalam Cursor, model ini dioptimalkan sebagai agen untuk menyelesaikan masalah pada codebase skala besar
- Model ini dilatih untuk menyelesaikan masalah dengan berbagai tingkat kesulitan menggunakan alat pencarian dan penyuntingan di lingkungan nyata
- Melalui hal ini, model memberikan pengalaman pengembangan interaktif berkecepatan tinggi
Latar belakang pengembangan
- Composer berawal dari pengalaman Cursor mengembangkan model autocomplete kode kustom (Cursor Tab)
- Mereka menemukan bahwa pengembang lebih menyukai model yang cerdas sekaligus responsif
- Berdasarkan model eksperimen awal Cheetah, Composer dirancang sebagai versi yang lebih cepat dan lebih pintar
- Tujuannya adalah membangun model yang memberi respons instan sambil mempertahankan alur kerja pengembangan
Arsitektur model dan metode pelatihan
- Composer adalah model bahasa Mixture-of-Experts(MoE) yang mendukung pemahaman dan generasi konteks panjang
- Melalui pembelajaran penguatan(RL), model ini dispesialisasikan untuk berbagai lingkungan pengembangan
- Pada setiap tahap pelatihan, model menerima deskripsi masalah lalu menghasilkan perbaikan kode, rencana, dan jawaban yang optimal
- Model memanfaatkan alat seperti membaca dan mengedit file, menjalankan perintah terminal, dan pencarian semantik di seluruh codebase
- Dalam proses RL, model belajar sendiri perilaku yang berguna seperti melakukan pencarian kompleks, memperbaiki error linter, menulis dan menjalankan unit test
Evaluasi dan benchmark
- Cursor Bench adalah set evaluasi internal yang mencakup permintaan rekayasa nyata dan jawaban optimal
- Ini mengukur akurasi model, kepatuhan terhadap abstraksi codebase, dan kesesuaian dengan praktik rekayasa perangkat lunak
- Composer diklasifikasikan sebagai model “Fast Frontier”, dan dibandingkan dengan model yang menargetkan inferensi efisien seperti Haiku 4.5 dan Gemini Flash 2.5
- Walau lebih lambat daripada model Frontier papan atas seperti GPT-5 dan Sonnet 4.5, model ini memiliki efisiensi tinggi dibanding kecepatannya
Infrastruktur dan desain sistem
- Untuk melatih model MoE skala besar, dibangun infrastruktur RL asinkron berbasis PyTorch dan Ray
- Infrastruktur ini menggabungkan kernel MXFP8 MoE, paralelisasi expert, dan paralelisme data hybrid sharding
- Pelatihan diskalakan di ribuan GPU NVIDIA sambil meminimalkan biaya komunikasi
- Melalui pelatihan presisi rendah MXFP8, diperoleh peningkatan kecepatan inferensi serta tidak diperlukan kuantisasi pascapemrosesan
- Selama RL, model dapat memanggil semua alat milik Cursor Agent
- Mendukung penyuntingan kode, pencarian semantik, string grep, eksekusi perintah terminal, dan lainnya
- Untuk itu, ratusan ribu lingkungan sandbox cloud dijalankan secara paralel
- Dengan memperluas infrastruktur Background Agents yang sudah ada, beban pelatihan burst dapat ditangani
Pemanfaatan internal dan peluncuran
- Tim Cursor secara aktif memanfaatkan Composer untuk pekerjaan pengembangan internal mereka sendiri
- Banyak engineer menggunakan Composer dalam pengembangan perangkat lunak sehari-hari
- Melalui peluncuran ini, mereka berharap pengembang lain juga dapat memanfaatkannya secara berguna
Lampiran: klasifikasi benchmark internal
- Fast Frontier: model inferensi efisien (Haiku 4.5, Gemini Flash 2.5, dll.)
- Best Open: model berbobot terbuka (Qwen Coder, GLM 4.6, dll.)
- Frontier 7/2025: model terbaik per Juli 2025
- Best Frontier: model dengan performa lebih tinggi daripada Composer seperti GPT-5 dan Sonnet 4.5
- Perhitungan Tokens per Second distandardisasi berdasarkan tokenizer Anthropic terbaru
Belum ada komentar.