2 poin oleh GN⁺ 2025-10-30 | Belum ada komentar. | Bagikan ke WhatsApp
  • Composer yang diperkenalkan Cursor adalah model agen cerdas berkecepatan tinggi untuk rekayasa perangkat lunak, yang mencapai kecepatan pembuatan kode 4 kali lebih cepat dibanding model serupa
  • Model ini dilatih untuk memecahkan masalah nyata pada codebase skala besar, dan menggunakan alat pencarian serta penyuntingan untuk menangani tugas dengan berbagai tingkat kesulitan
  • Dengan menggabungkan arsitektur Mixture-of-Experts(MoE) dan pembelajaran penguatan(RL), model ini mendukung pemahaman dan generasi konteks panjang untuk penyuntingan kode, perencanaan, dan pemberian jawaban
  • Melalui evaluasi Cursor Bench, diukur bukan hanya akurasi model tetapi juga konsistensi codebase serta kepatuhan pada praktik rekayasa
  • Dengan memanfaatkan infrastruktur RL asinkron berbasis PyTorch·Ray dan pelatihan presisi rendah MXFP8, pelatihan efisien di ribuan GPU serta peningkatan kecepatan inferensi dapat dicapai

Ikhtisar Composer

  • Composer adalah model agen baru yang dikembangkan dengan tujuan kecerdasan dan kecepatan untuk rekayasa perangkat lunak
    • Dalam benchmark, model ini mencatat kecepatan pembuatan kode 4 kali lebih cepat dibanding model serupa
    • Di dalam Cursor, model ini dioptimalkan sebagai agen untuk menyelesaikan masalah pada codebase skala besar
  • Model ini dilatih untuk menyelesaikan masalah dengan berbagai tingkat kesulitan menggunakan alat pencarian dan penyuntingan di lingkungan nyata
    • Melalui hal ini, model memberikan pengalaman pengembangan interaktif berkecepatan tinggi

Latar belakang pengembangan

  • Composer berawal dari pengalaman Cursor mengembangkan model autocomplete kode kustom (Cursor Tab)
    • Mereka menemukan bahwa pengembang lebih menyukai model yang cerdas sekaligus responsif
  • Berdasarkan model eksperimen awal Cheetah, Composer dirancang sebagai versi yang lebih cepat dan lebih pintar
    • Tujuannya adalah membangun model yang memberi respons instan sambil mempertahankan alur kerja pengembangan

Arsitektur model dan metode pelatihan

  • Composer adalah model bahasa Mixture-of-Experts(MoE) yang mendukung pemahaman dan generasi konteks panjang
  • Melalui pembelajaran penguatan(RL), model ini dispesialisasikan untuk berbagai lingkungan pengembangan
    • Pada setiap tahap pelatihan, model menerima deskripsi masalah lalu menghasilkan perbaikan kode, rencana, dan jawaban yang optimal
    • Model memanfaatkan alat seperti membaca dan mengedit file, menjalankan perintah terminal, dan pencarian semantik di seluruh codebase
  • Dalam proses RL, model belajar sendiri perilaku yang berguna seperti melakukan pencarian kompleks, memperbaiki error linter, menulis dan menjalankan unit test

Evaluasi dan benchmark

  • Cursor Bench adalah set evaluasi internal yang mencakup permintaan rekayasa nyata dan jawaban optimal
    • Ini mengukur akurasi model, kepatuhan terhadap abstraksi codebase, dan kesesuaian dengan praktik rekayasa perangkat lunak
  • Composer diklasifikasikan sebagai model “Fast Frontier”, dan dibandingkan dengan model yang menargetkan inferensi efisien seperti Haiku 4.5 dan Gemini Flash 2.5
    • Walau lebih lambat daripada model Frontier papan atas seperti GPT-5 dan Sonnet 4.5, model ini memiliki efisiensi tinggi dibanding kecepatannya

Infrastruktur dan desain sistem

  • Untuk melatih model MoE skala besar, dibangun infrastruktur RL asinkron berbasis PyTorch dan Ray
    • Infrastruktur ini menggabungkan kernel MXFP8 MoE, paralelisasi expert, dan paralelisme data hybrid sharding
    • Pelatihan diskalakan di ribuan GPU NVIDIA sambil meminimalkan biaya komunikasi
  • Melalui pelatihan presisi rendah MXFP8, diperoleh peningkatan kecepatan inferensi serta tidak diperlukan kuantisasi pascapemrosesan
  • Selama RL, model dapat memanggil semua alat milik Cursor Agent
    • Mendukung penyuntingan kode, pencarian semantik, string grep, eksekusi perintah terminal, dan lainnya
    • Untuk itu, ratusan ribu lingkungan sandbox cloud dijalankan secara paralel
    • Dengan memperluas infrastruktur Background Agents yang sudah ada, beban pelatihan burst dapat ditangani

Pemanfaatan internal dan peluncuran

  • Tim Cursor secara aktif memanfaatkan Composer untuk pekerjaan pengembangan internal mereka sendiri
    • Banyak engineer menggunakan Composer dalam pengembangan perangkat lunak sehari-hari
  • Melalui peluncuran ini, mereka berharap pengembang lain juga dapat memanfaatkannya secara berguna

Lampiran: klasifikasi benchmark internal

  • Fast Frontier: model inferensi efisien (Haiku 4.5, Gemini Flash 2.5, dll.)
  • Best Open: model berbobot terbuka (Qwen Coder, GLM 4.6, dll.)
  • Frontier 7/2025: model terbaik per Juli 2025
  • Best Frontier: model dengan performa lebih tinggi daripada Composer seperti GPT-5 dan Sonnet 4.5
  • Perhitungan Tokens per Second distandardisasi berdasarkan tokenizer Anthropic terbaru

Belum ada komentar.

Belum ada komentar.