5 poin oleh GN⁺ 2026-03-05 | 1 komentar | Bagikan ke WhatsApp
  • Sejumlah besar peneliti inti tim Qwen milik Alibaba mengundurkan diri, membuat masa depan seri model Qwen 3.5 yang baru dirilis menjadi tidak pasti
  • Pemimpin tim Lin Junyang mengumumkan pengunduran dirinya, lalu beberapa personel kunci ikut keluar dari tim
  • Keluarga model Qwen 3.5 yang baru dirilis belakangan ini juga sedang mendapat sorotan karena menunjukkan performa luar biasa bahkan pada model kecil
  • Kemungkinan bubarnya tim Qwen dapat menjadi titik balik penting bagi ekosistem riset AI open source dari Tiongkok

Perubahan personel di tim Qwen

  • Tepat setelah seri model Qwen 3.5 milik Alibaba diumumkan, pemimpin tim Lin Junyang mengumumkan pengunduran dirinya melalui X (dulu Twitter) dengan pesan, “me stepping down. bye my beloved qwen.”
    • Lin adalah peneliti kunci yang memimpin perilisan model berbobot terbuka Qwen sejak 2024, dan merupakan salah satu personel level P10 termuda di Alibaba
  • Menurut laporan media Tiongkok 36Kr, sekitar pukul 1 siang pada 4 Maret, Tongyi Lab milik Alibaba mengadakan rapat darurat seluruh perusahaan, dan CEO Wu Yongming langsung menjelaskan situasinya kepada tim Qwen
    • Pengunduran diri Lin diumumkan 12 jam sebelumnya, pada pukul 00:11 dini hari, dan disebut menimbulkan guncangan besar bahkan di dalam tim
    • Sekitar pukul 2 siang, Lin meninggalkan pesan di WeChat: “Saudara-saudara Qwen, lanjutkan sesuai rencana semula. Tidak ada masalah”, tetapi tidak menjelaskan secara jelas apakah ia akan kembali
    • Anggota tim Qwen mengatakan kepada 36Kr bahwa “kepemimpinan Junyang adalah faktor utama yang memungkinkan pencapaian saat ini, dengan sumber daya yang jauh lebih sedikit dibanding para pesaing
  • Sebagai pemicu pengunduran diri, disebut-sebut adanya restrukturisasi organisasi internal di Alibaba yang menempatkan peneliti baru berlatar tim Google Gemini sebagai penanggung jawab Qwen, tetapi ini adalah informasi yang belum terkonfirmasi

Gelombang pengunduran diri personel kunci

  • Setelah pengunduran diri Lin, dipastikan beberapa anggota inti juga ikut keluar
    • Binyuan Hui: pemimpin pengembangan kode Qwen, penanggung jawab seri Qwen-Coder, menangani seluruh proses pembelajaran agen, dan baru-baru ini terlibat dalam riset robotika
    • Bowen Yu: pemimpin post-training Qwen, memimpin pengembangan seri Qwen-Instruct
    • Kaixin Li: kontributor utama untuk Qwen 3.5/VL/Coder, doktor dari National University of Singapore
    • Selain itu, dilaporkan ada banyak peneliti muda lain yang juga mengundurkan diri pada hari yang sama
  • Kehadiran langsung CEO Alibaba dalam rapat menunjukkan bahwa pihak perusahaan menyadari keseriusan situasi ini

Karakteristik model Qwen 3.5

  • Qwen 3.5 adalah keluarga model berbobot terbuka yang dipublikasikan tim Alibaba Qwen dalam beberapa minggu terakhir, dengan performa yang sangat kuat
    • Qwen3.5-397B-A17B yang diumumkan pada 17 Februari adalah model besar berukuran 807GB
    • Setelah itu, model dengan berbagai ukuran seperti 122B, 35B, 27B, 9B, 4B, 2B, 0.8B dirilis secara berurutan
  • Model 27B dan 35B mendapat penilaian bagus untuk coding, sedangkan model 9B·4B·2B sangat efisien dibanding ukurannya
    • Model 27B dan 35B dapat dijalankan di Mac 32GB/64GB sambil tetap menangani tugas coding dengan sangat baik
    • Secara khusus, model 2B hanya berukuran 4.57GB (1.27GB saat dikuantisasi), tetapi tetap mendukung penalaran dan kemampuan multimodal (vision)

Prospek ke depan

  • Jika tim Qwen dibubarkan, ada kemungkinan hasil riset yang selama ini mewujudkan performa berkualitas tinggi pada model kecil akan terhenti
  • Jika anggota tim mendirikan laboratorium riset baru atau bergabung dengan institusi lain, tetap ada harapan terhadap riset lanjutan
  • Situasi saat ini masih “belum pasti”, dan masih ada kemungkinan Alibaba mempertahankan sebagian personel

Sumber eksternal yang dirujuk

1 komentar

 
GN⁺ 2026-03-05
Komentar Hacker News
  • Semoga pengembangan tidak terlalu terganggu. Seperti kata Simon, Qwen3.5 benar-benar mengesankan
    Selama beberapa hari terakhir saya menguji Qwen3.5-35B-A3B, dan sejauh ini ini adalah model dengan kemampuan coding agentic terbaik yang pernah saya pakai
    Saya memintanya menulis kode Rust dan Elixir dengan harness Pi, dan ia membuat pengujiannya sendiri serta memverifikasi apakah lolos atau tidak. Ia menangani loop error pengujian atau kompilasi dengan baik sambil terus bergerak menuju tujuan
    • Saya menjalankan 3.5:122b di GH200, dan untuk pekerjaan Rust/React/TS sedikit di bawah Sonnet, tetapi masih cukup bagus untuk tugas-tugas dengan cakupan kecil
      Hanya saja, di tengah jalan ia kadang memutuskan “ini akan lebih sederhana” lalu mengabaikan instruksi dan menghapus seluruh supporting code
    • Saya juga mengujinya dengan Rust, dan kadang ia masuk ke loop tak hingga lalu keluar sendiri
      Ia memilih deadpool dan deadpool-r2d2 pada tahap perencanaan lalu malah membingungkan dirinya sendiri. Meski begitu, secara umum kodenya bagus, dan sepertinya hanya lapisan database yang perlu sedikit dirapikan
      Sejauh ini ini adalah model self-hostable paling stabil
    • Saat saya mencoba model dense 27B, loop dan pengulangan yang tidak perlu jauh lebih sedikit
    • Saya penasaran apakah Anda menjalankannya secara lokal dengan llama.cpp. Dengan chat template bawaan, pemanggilan tool gagal, tetapi dengan template ini hasilnya jauh lebih baik
    • Saya ingin tahu dijalankan di hardware apa. Apakah menurut Anda dalam coding sehari-hari ini bisa menggantikan model frontier?
  • Katanya ada ketegangan antara tim riset Qwen dan tim produk Alibaba. Saya dengar Alibaba baru-baru ini mencoba memaksakan DAU sebagai KPI
    Dari sudut pandang perusahaan, perubahan strategi itu bisa dimengerti, tetapi saya heran kenapa peneliti inti justru dilepas. Bukankah sekarang justru masa kekurangan peneliti model?
    • Mungkin mereka berniat mengubah model Qwen ke model komersial tertutup di masa depan, dan tim riset tidak bisa menerima itu
  • Saya penasaran kenapa lab di AS tidak menginvestasikan dana besar ke talenta-talenta seperti ini
    • Di daerah saya (Ohio), ICE sedang menindak orang-orang Tiongkok. Bahkan penduduk legal pun merasa berisiko dideportasi
      Dalam suasana seperti ini, seberapa banyak pun uang yang dikeluarkan lab AS, akan sulit menarik talenta
    • AS telah membuat bahkan imigran legal pun terekspos pada risiko penahanan
    • Eropa harus membesarkan model pesaing untuk mengantisipasi kekacauan politik AS
    • Orang-orang yang sudah tertarik oleh modal AS sudah pergi, dan Tiongkok juga sudah berinvestasi cukup besar
      Selain itu, di perusahaan Tiongkok mereka bisa punya pengaruh lebih besar dalam pengambilan keputusan
    • Masalahnya bukan sekadar pemotongan anggaran NSF. Daya tarik AS menurun karena masalah kesehatan, risiko perang, dan ketidakpastian terhadap peneliti asing
      Sejak masa pemerintahan Trump, arus mahasiswa asing sudah menurun, dan sekarang menempuh PhD di AS bahkan mulai dianggap sebagai risiko reputasi
  • Saat memakai model lokal, orang cenderung lebih toleran terhadap trial and error
    Kalau model cloud membuang token, biayanya terasa sayang, tetapi kalau model lokal berputar dalam loop, rasanya seperti “oh, dia sedang berpikir”
    Jika model seperti Qwen menjadi cukup layak untuk coding lokal, perubahan yang terjadi kemungkinan lebih bersifat ekonomis daripada teknis
    • Pemborosan token pada model lokal justru saya sambut. GPU mainframe di kamar saya juga berfungsi sebagai pemanas ruangan (berkat kondisi pemanas yang tidak stabil di Swiss)
  • Saya menjalankan model 32B secara lokal selama beberapa hari, dan ia menangani coding agentic dengan cukup baik
    Performanya sangat bagus untuk ukurannya, tetapi pada instruksi panjang ia cenderung mengabaikan sekitar setengahnya. Pada ukuran seperti ini, itu trade-off yang masih bisa diterima
  • Sebagai matematikawan, saya memakai Qwen untuk mengotomatisasi relasi antar-makalah dan ringkasan
    Bahkan sampai melakukan verifikasi salah kutip, dan itu dipakai untuk makalah arXiv
    Hasilnya saya rangkum di halaman ini
  • Saya berharap tim riset akan melanjutkan lagi persaingan model open-weight di tempat lain
    Sebenarnya saya pikir riset seperti ini seharusnya didukung pemerintah, tetapi sekarang perusahaan Tiongkok yang justru mengambil peran itu
  • Qwen3.5 benar-benar luar biasa. Saya menjalankan versi 35B di Ada NextGen 24GB dengan easy-llm-cli, dan hasilnya hampir setara dengan Gemini 3 Pro
    Kecepatannya juga cukup tinggi
    • Dengan pengaturan q4 quant saya bisa mendapat 175 tg dan 7K pp, dan itu lebih efisien daripada kebanyakan penyedia cloud
  • Akhir-akhir ini suasananya terasa berubah dari “AI menggantikan manusia” menjadi “AI akan mati tanpa orang tertentu”. Ini benar-benar pergeseran yang dramatis
    • Uptime Anthropic bukan 99.9999999%, melainkan hanya sekitar 90%. Itu bisa dilihat di halaman status
      Jika AI benar-benar bisa sepenuhnya menggantikan manusia, para CEO tidak perlu bersusah payah meyakinkan orang seperti ini
    • Ucapan “AI akan mati tanpa orang tertentu” itu berlebihan. Orang hanya penasaran dengan arah keluarga model Qwen
    • Pergeseran dari target AGI ke strategi jangka pendek yang berpusat pada iklan menunjukkan situasi saat ini dengan baik
    • Claude bahkan tidak bisa membuat aplikasi native sendiri, dan aplikasi web-nya pun tidak stabil, sampai-sampai itulah alasan Anthropic mengakuisisi Bun
  • Lupakan saja, di sini Chinatown