- Sejumlah besar peneliti inti tim Qwen milik Alibaba mengundurkan diri, membuat masa depan seri model Qwen 3.5 yang baru dirilis menjadi tidak pasti
- Pemimpin tim Lin Junyang mengumumkan pengunduran dirinya, lalu beberapa personel kunci ikut keluar dari tim
- Keluarga model Qwen 3.5 yang baru dirilis belakangan ini juga sedang mendapat sorotan karena menunjukkan performa luar biasa bahkan pada model kecil
- Kemungkinan bubarnya tim Qwen dapat menjadi titik balik penting bagi ekosistem riset AI open source dari Tiongkok
Perubahan personel di tim Qwen
- Tepat setelah seri model Qwen 3.5 milik Alibaba diumumkan, pemimpin tim Lin Junyang mengumumkan pengunduran dirinya melalui X (dulu Twitter) dengan pesan, “me stepping down. bye my beloved qwen.”
- Lin adalah peneliti kunci yang memimpin perilisan model berbobot terbuka Qwen sejak 2024, dan merupakan salah satu personel level P10 termuda di Alibaba
- Menurut laporan media Tiongkok 36Kr, sekitar pukul 1 siang pada 4 Maret, Tongyi Lab milik Alibaba mengadakan rapat darurat seluruh perusahaan, dan CEO Wu Yongming langsung menjelaskan situasinya kepada tim Qwen
- Pengunduran diri Lin diumumkan 12 jam sebelumnya, pada pukul 00:11 dini hari, dan disebut menimbulkan guncangan besar bahkan di dalam tim
- Sekitar pukul 2 siang, Lin meninggalkan pesan di WeChat: “Saudara-saudara Qwen, lanjutkan sesuai rencana semula. Tidak ada masalah”, tetapi tidak menjelaskan secara jelas apakah ia akan kembali
- Anggota tim Qwen mengatakan kepada 36Kr bahwa “kepemimpinan Junyang adalah faktor utama yang memungkinkan pencapaian saat ini, dengan sumber daya yang jauh lebih sedikit dibanding para pesaing”
- Sebagai pemicu pengunduran diri, disebut-sebut adanya restrukturisasi organisasi internal di Alibaba yang menempatkan peneliti baru berlatar tim Google Gemini sebagai penanggung jawab Qwen, tetapi ini adalah informasi yang belum terkonfirmasi
Gelombang pengunduran diri personel kunci
- Setelah pengunduran diri Lin, dipastikan beberapa anggota inti juga ikut keluar
- Binyuan Hui: pemimpin pengembangan kode Qwen, penanggung jawab seri Qwen-Coder, menangani seluruh proses pembelajaran agen, dan baru-baru ini terlibat dalam riset robotika
- Bowen Yu: pemimpin post-training Qwen, memimpin pengembangan seri Qwen-Instruct
- Kaixin Li: kontributor utama untuk Qwen 3.5/VL/Coder, doktor dari National University of Singapore
- Selain itu, dilaporkan ada banyak peneliti muda lain yang juga mengundurkan diri pada hari yang sama
- Kehadiran langsung CEO Alibaba dalam rapat menunjukkan bahwa pihak perusahaan menyadari keseriusan situasi ini
Karakteristik model Qwen 3.5
- Qwen 3.5 adalah keluarga model berbobot terbuka yang dipublikasikan tim Alibaba Qwen dalam beberapa minggu terakhir, dengan performa yang sangat kuat
- Qwen3.5-397B-A17B yang diumumkan pada 17 Februari adalah model besar berukuran 807GB
- Setelah itu, model dengan berbagai ukuran seperti 122B, 35B, 27B, 9B, 4B, 2B, 0.8B dirilis secara berurutan
- Model 27B dan 35B mendapat penilaian bagus untuk coding, sedangkan model 9B·4B·2B sangat efisien dibanding ukurannya
- Model 27B dan 35B dapat dijalankan di Mac 32GB/64GB sambil tetap menangani tugas coding dengan sangat baik
- Secara khusus, model 2B hanya berukuran 4.57GB (1.27GB saat dikuantisasi), tetapi tetap mendukung penalaran dan kemampuan multimodal (vision)
Prospek ke depan
- Jika tim Qwen dibubarkan, ada kemungkinan hasil riset yang selama ini mewujudkan performa berkualitas tinggi pada model kecil akan terhenti
- Jika anggota tim mendirikan laboratorium riset baru atau bergabung dengan institusi lain, tetap ada harapan terhadap riset lanjutan
- Situasi saat ini masih “belum pasti”, dan masih ada kemungkinan Alibaba mempertahankan sebagian personel
Sumber eksternal yang dirujuk
1 komentar
Komentar Hacker News
Selama beberapa hari terakhir saya menguji Qwen3.5-35B-A3B, dan sejauh ini ini adalah model dengan kemampuan coding agentic terbaik yang pernah saya pakai
Saya memintanya menulis kode Rust dan Elixir dengan harness Pi, dan ia membuat pengujiannya sendiri serta memverifikasi apakah lolos atau tidak. Ia menangani loop error pengujian atau kompilasi dengan baik sambil terus bergerak menuju tujuan
Hanya saja, di tengah jalan ia kadang memutuskan “ini akan lebih sederhana” lalu mengabaikan instruksi dan menghapus seluruh supporting code
Ia memilih deadpool dan deadpool-r2d2 pada tahap perencanaan lalu malah membingungkan dirinya sendiri. Meski begitu, secara umum kodenya bagus, dan sepertinya hanya lapisan database yang perlu sedikit dirapikan
Sejauh ini ini adalah model self-hostable paling stabil
Dari sudut pandang perusahaan, perubahan strategi itu bisa dimengerti, tetapi saya heran kenapa peneliti inti justru dilepas. Bukankah sekarang justru masa kekurangan peneliti model?
Dalam suasana seperti ini, seberapa banyak pun uang yang dikeluarkan lab AS, akan sulit menarik talenta
Selain itu, di perusahaan Tiongkok mereka bisa punya pengaruh lebih besar dalam pengambilan keputusan
Sejak masa pemerintahan Trump, arus mahasiswa asing sudah menurun, dan sekarang menempuh PhD di AS bahkan mulai dianggap sebagai risiko reputasi
Kalau model cloud membuang token, biayanya terasa sayang, tetapi kalau model lokal berputar dalam loop, rasanya seperti “oh, dia sedang berpikir”
Jika model seperti Qwen menjadi cukup layak untuk coding lokal, perubahan yang terjadi kemungkinan lebih bersifat ekonomis daripada teknis
Performanya sangat bagus untuk ukurannya, tetapi pada instruksi panjang ia cenderung mengabaikan sekitar setengahnya. Pada ukuran seperti ini, itu trade-off yang masih bisa diterima
Bahkan sampai melakukan verifikasi salah kutip, dan itu dipakai untuk makalah arXiv
Hasilnya saya rangkum di halaman ini
Sebenarnya saya pikir riset seperti ini seharusnya didukung pemerintah, tetapi sekarang perusahaan Tiongkok yang justru mengambil peran itu
Kecepatannya juga cukup tinggi
Jika AI benar-benar bisa sepenuhnya menggantikan manusia, para CEO tidak perlu bersusah payah meyakinkan orang seperti ini