1 poin oleh GN⁺ 1 jam lalu | 1 komentar | Bagikan ke WhatsApp
  • Model bobot terbuka memungkinkan siapa pun menjalankan LLM langsung di perangkat keras mereka sendiri, sehingga memberi perlindungan data sensitif, fleksibilitas untuk fine-tuning dan kuantisasi, serta biaya inferensi yang lebih rendah dibanding model frontier
  • Model dari lab Tiongkok seperti MiniMax, Z.ai, DeepSeek, dan Qwen dinilai sebagai model bobot terbuka terdepan, sementara Gemma dari Google dan gpt-oss dari OpenAI umumnya dianggap berada di belakangnya
  • Model bobot terbuka memberi tekanan penurunan harga pada lab frontier seperti OpenAI, Anthropic, dan Google, karena kemungkinan beralih ke alternatif murah menahan perilaku penetapan harga oligopolistik
  • Baru-baru ini, Meta berhenti merilis model pada “Muse Spark” terbarunya, Alibaba makin sering memilih rilis API-first atau API-only, dan Kimi K2.6 serta Mistral juga menunjukkan arus penerapan syarat lisensi yang lebih ketat
  • Jika ekosistem bobot terbuka yang kompetitif melemah, segelintir lab frontier dan beberapa lab Tiongkok dapat menyerap lebih banyak surplus konsumen dari pengguna AI, sementara distilasi juga sulit menjadi solusi mendasar karena tetap membutuhkan akses ke model dasar yang kuat

Peran model bobot terbuka

  • Di pasar LLM, model tertutup dan model bobot terbuka (open weights) telah hidup berdampingan
    • Model tertutup, terlepas dari namanya, mencakup hampir semua model OpenAI
    • Model bobot terbuka telah dirilis oleh lab lain, dengan seri Llama sebagai contoh paling representatif
    • Belakangan ini, model dari lab Tiongkok seperti MiniMax, Z.ai, DeepSeek, dan Qwen (Alibaba) dianggap sebagai model bobot terbuka terdepan
    • Seri Gemma dari Google dan model gpt-oss dari OpenAI umumnya dinilai berada di belakang model-model Tiongkok tersebut
  • Model bobot terbuka memungkinkan siapa pun untuk menjalankannya langsung di perangkat keras mereka sendiri
    • Model yang cukup bernilai untuk dijalankan biasanya membutuhkan perangkat keras yang sangat kuat
    • Kondisi ini berubah cepat karena model yang lebih kecil menjadi jauh lebih berguna
  • Menjalankan secara lokal memiliki tiga keunggulan dibanding mengirim permintaan lewat API ke penyedia seperti OpenAI, Anthropic, dan Google
    • Jika data sensitif sulit atau tidak mungkin dikirim ke pusat data lab frontier, menjalankan on-premise dapat memastikan data tidak keluar dari jaringan
    • Model dapat digunakan berbasis fine-tuning atau dikuantisasi (kompresi kasar) agar sesuai dengan kondisi perangkat keras tertentu, sehingga fleksibilitasnya lebih besar
    • Jika menggunakan perangkat keras sendiri, yang perlu dipertimbangkan hanyalah belanja modal perangkat keras, listrik, dan biaya operasional; bahkan jika memakai penyedia hosting, biaya per token biasanya kurang dari 10% biaya model frontier

Tekanan harga dan disiplin pasar

  • Model bobot terbuka memberi tekanan penurunan harga yang signifikan pada lab frontier
    • Ini agak mirip dengan teori contestable markets, di mana bahkan dalam pasar monopoli atau oligopoli, keberadaan alternatif yang murah dan andal mendorong pelaku lama untuk bertindak kompetitif
    • Secara ketat teori ini mengasumsikan hampir tidak ada sunk cost, sedangkan pelatihan model frontier justru mendekati kebalikannya
    • Meski begitu, mekanisme intinya tetap sama: adanya opsi potensial bagi konsumen untuk beralih ikut mendisiplinkan harga
  • Model frontier dapat mematok harga lebih tinggi karena kualitas yang lebih baik dan keuntungan kontraktual
    • Pengguna bisa bersedia membayar jauh lebih mahal untuk model yang lebih baik
    • Kontrak inferensi dengan perusahaan bernilai sekitar 1 triliun dolar memiliki nilai yang berbeda dibanding memakai penyedia inferensi murah melalui OpenRouter
    • OpenAI dan lainnya menawarkan janji yang mengikat secara hukum untuk hal-hal seperti SLA dan kerahasiaan
  • Namun, model bobot terbuka tetap memberikan tekanan yang cukup untuk menyulitkan perilaku penetapan harga oligopolistik
    • Jika lab frontier menaikkan harga 5 kali lipat dalam semalam, banyak pengguna—terutama untuk use case yang kurang menuntut—dapat beralih ke model bobot terbuka
    • Dalam hal perilaku harga, model bobot terbuka memainkan peran mirip obat generik
    • Jika obat generik tersedia, perusahaan farmasi besar menurunkan harga lebih dekat ke harga generik, lalu fokus pada terapi baru yang satu langkah lebih maju dari generik untuk mempertahankan harga
  • Tanpa model bobot terbuka, daya penetapan harga lab frontier bisa jauh lebih besar daripada sekarang

Perubahan lisensi dan cara rilis

  • Ketersediaan model bobot terbuka bukanlah sesuatu yang bisa dianggap pasti
    • Melatih model membutuhkan biaya besar, dan perusahaan yang membuat model ini adalah perusahaan komersial
    • Meski mungkin sangat disubsidi oleh negara Tiongkok, mereka tetap bukan badan amal
  • Belakangan ini, syarat lisensi untuk model bobot terbuka menunjukkan tren pengetatan yang jelas
    • Meta sepenuhnya menghentikan bobot terbuka pada model “Muse Spark” terbarunya dan sama sekali tidak merilis model tersebut
    • Alibaba semakin sering merilis model lewat API terlebih dahulu, atau hanya lewat API untuk beberapa variannya
    • Lisensi K2.6 dari Kimi menambahkan klausul atribusi yang mengharuskan produk dengan lebih dari 100 juta pengguna aktif bulanan atau pendapatan bulanan di atas 20 juta dolar menampilkan “Kimi K2.6” secara mencolok di UI
    • Mistral dari Prancis juga menerapkan berbagai syarat lisensi untuk penggunaan komersial
  • Ada juga pengecualian
    • DeepSeek justru bergerak ke arah yang lebih longgar
    • Namun secara umum trennya adalah lisensi yang makin tidak longgar, dan Meta serta Alibaba bergerak ke arah menghentikan rilis sebagian atau seluruh model

Struktur pasar yang bisa terbentuk jika bobot terbuka menyusut

  • Dalam setahun, bisa saja sebagian besar atau seluruh model tingkat terbaik yang dulu akan dirilis sebagai bobot terbuka tidak lagi dirilis seperti itu
    • Untuk saat ini, ini masih situasi hipotetis
    • Perbandingan harga antar model mungkin tetap ada
    • Namun jika biaya dan kompleksitas pelatihan terus naik, bisa jadi hanya segelintir pemain yang tersisa
  • Susunan pasar yang mungkin adalah menyempit ke tiga lab frontier besar di Barat dan beberapa lab Tiongkok
    • Ada juga kemungkinan lab Tiongkok digabung melalui “merger” yang dipimpin negara menjadi satu atau dua “superlab” Tiongkok
    • Preseden penyatuan seperti ini banyak ditemukan di industri strategis
    • Tiongkok telah memakai pendekatan ini di perkeretaapian (CRRC), tenaga nuklir, maskapai, dan telekomunikasi
    • Barat juga bukan pengecualian, karena ada preseden konsolidasi kontraktor utama pertahanan setelah Perang Dingin
  • Perubahan seperti ini memungkinkan segelintir perusahaan menyerap surplus konsumen yang dihasilkan AI
    • Pengguna AI memperoleh nilai yang jauh lebih besar daripada biaya token yang mereka bayarkan
    • Nilainya bisa sedemikian besar sehingga mereka mungkin tidak ragu membayar 10 kali harga saat ini
    • Dalam pekerjaan profesional bernilai tinggi atau tugas bergaya agen, jarak antara pembayaran aktual dan kesediaan membayar menjadi lebih besar lagi
    • Oligopoli tanpa batas bawah harga dari bobot terbuka berada pada posisi untuk mengambil selisih ini sebagai keuntungan
  • Secara teori ekonomi, dalam dunia seperti ini, kekuasaan dan kekayaan ekonomi dapat terkonsentrasi secara historis pada segelintir perusahaan
    • Lab dapat mulai mengekstrak surplus konsumen langsung sebagai margin
    • Karena adanya oligopoli perusahaan-perusahaan besar dan belanja modal raksasa yang diperlukan untuk model baru sebagai hambatan masuk, persaingan harga kemungkinan terbatas

Kemungkinan sanggahan dan risiko yang tersisa

  • Bisa saja pandangan pesimistis ini berlebihan
    • Jika perangkat keras berkembang lebih cepat, melatih model yang “cukup bagus” justru bisa menjadi lebih mudah seiring waktu
    • Produsen perangkat keras AI memang hanya sedikit, tetapi persaingan di pasar perangkat keras AI terlihat sangat ketat
  • Distilasi (distillation) sering disebut sebagai jalan keluar, tetapi bukan solusi mendasar
    • Distilasi adalah cara melatih model yang lebih kecil menggunakan keluaran model frontier
    • Namun sejak awal tetap harus ada akses ke model dasar yang kuat
    • Justru elemen yang sedang terancam adalah akses ke model dasar yang kuat itu sendiri
  • Ekosistem bobot terbuka yang kompetitif selama ini merupakan asumsi penopang beban yang diam-diam menopang seluruh ekonomi AI
    • Fakta bahwa asumsi ini sedang melemah perlu diperhatikan
    • Implikasinya terhadap ekonomi yang lebih luas sangat besar

Istilah dan penjelasan tambahan

  • Model bobot terbuka adalah kategori yang hanya merilis model final
    • Secara teknis, model dapat dibagi menjadi tiga kategori: tertutup, bobot terbuka, dan model yang sepenuhnya terbuka atau dapat direproduksi
    • Model yang sepenuhnya terbuka atau dapat direproduksi juga mencakup data pelatihan dan dokumentasi prosedur pelatihan terkait
    • Kategori inilah yang paling mirip dengan open source dalam perangkat lunak
  • OpenRouter berperan sebagai “API untuk API”
    • Ia merutekan permintaan ke penyedia inferensi yang paling murah atau paling tersedia untuk model tertentu
    • Jika satu penyedia bermasalah, ia bisa langsung beralih ke penyedia lain untuk sangat meningkatkan keandalan
    • Jika ada penyedia yang lebih murah, ia akan beralih ke sana

1 komentar

 
GN⁺ 1 jam lalu
Pendapat di Lobste.rs
  • Tulisan ini tidak akurat soal Kimi. Memang ada beberapa pihak yang menambahkan pembatasan besar lalu menyebutnya “modified MIT”, tetapi Kimi K2.6 just has an advertising clause saja. Akan lebih baik kalau klausul itu tidak ada, tetapi rasanya tidak sampai separah itu untuk dipermasalahkan berlebihan
    Tulisan tersebut mengklaim bahwa Kimi melarang penggunaan model open-weight pada produk dengan lebih dari 100 juta pengguna aktif bulanan atau pendapatan bulanan di atas 20 juta dolar, tetapi lisensi K2.6 yang sebenarnya hanya mensyaratkan agar “Kimi K2.6” ditampilkan secara mencolok di UI produk atau layanan semacam itu
    Memang benar beberapa perusahaan mengurangi rilis open-weight, tetapi ada juga pihak seperti Xiaomi, DeepSeek, Moonshot, dan Zai yang merilis model open-weight besar yang kompetitif. Di sisi model kecil, Gemma 4 yang berpindah ke lisensi terbuka standar Apache juga merupakan perkembangan positif
    Kekhawatiran ini memang valid untuk diangkat, tetapi untuk saat ini tampaknya lebih mendekati situasi di mana perusahaan yang mundur dari open-weight sedang digantikan oleh pendatang baru atau oleh perusahaan yang beralih ke lisensi yang lebih tradisional

    • Sebagai penulis, ini kritik yang masuk akal jadi saya sudah memperbarui tulisannya. Sepertinya saya mencampuradukkannya dengan Cursor Kimi, dan koreksinya benar
      Menarik melihat bagaimana ini akan berkembang. Saya tidak memasukkannya karena artikelnya sudah panjang, tetapi saya kira perusahaan-perusahaan ini memang butuh model open-weight untuk benar-benar mendapat perhatian. Kalau melihat kasus seperti Grok, yang meskipun punya sumber daya komputasi besar dan harga agresif tetap adopsinya rendah, setidaknya akan sangat sulit bagi mereka untuk meraih pengenalan global tanpa itu
      Meski begitu, model-model Tiongkok juga tidak punya komputasi inferensi sebanyak xAI. Sekarang kualitas model sudah meningkat sehingga insentif untuk menutupnya makin besar, tetapi bisa saja dunia ini tetap terus melahirkan pendatang baru
  • Saya jadi bertanya sendiri, apa insentif pasar untuk merilis large language model open-weight
    Nvidia on Hugging Face memang merilis beberapa model, dan tampaknya mereka bertaruh bahwa kalau orang menjalankan large language model lokal alih-alih memakai layanan berlangganan, mereka bisa menjual lebih banyak kartu grafis
    Jika rilis model open-weight berkurang, para penyedia inferensi besar mungkin bisa membentuk yayasan open-weight mirip Linux Foundation untuk mengoordinasikan pengadaan data pelatihan, pelatihan, dan fine-tuning. Tanpa model kompetitif untuk ditawarkan, bisnis perusahaan-perusahaan ini juga akan sulit berjalan

    • Saya pernah membaca teori bahwa ketika Hukum Moore berakhir, perangkat elektronik akan menjadi lebih terbuka dan mudah diperbaiki. Logikanya, selama perusahaan masih bisa menjaga posisi terdepan, mereka punya insentif untuk menyembunyikan sumber rahasia, tetapi kalau batas itu tidak lagi bergerak, mereka berhenti bersaing lewat fungsionalitas dan semua produk di pasar menjadi sama-sama cukup bagus sehingga insentif itu menghilang
      Saya tidak tahu apakah penyedia inferensi saat ini akan membentuk yayasan open-weight. Namun, jika large language model mencapai tembok dalam beberapa tahun, jelas bisa muncul insentif di sisi pelanggan. Semacam, “kenapa kita membayar 5 miliar dolar per bulan ke OpenAnthropic untuk sesuatu yang bisa kita lakukan sendiri?”
  • Ada komentar di sini yang membantah sebagian isi tulisan, tetapi saya ingin menambahkan beberapa hal lagi
    Jelas Alibaba mengambil pendekatan yang agak kurang open-first untuk Qwen, dan itu disayangkan, tetapi jarak nyatanya tidak sebesar itu. Model lini Max dan banyak model khusus sejak awal memang API-only, dan model utama yang sekarang API-only pada dasarnya hanya “Plus” dengan sekitar 400B parameter. Secara historis pun itu bukan model yang luar biasa hebat untuk ukurannya
    Model-model kecil yang umumnya dikenal orang sebagai Qwen masih tetap dirilis. Jadwal rilisnya terasa lebih tersebar, tetapi rilis Qwen memang sejak dulu cukup berantakan
    Qwen 3.6 Plus yang disebut sebagai model tertutup tersedia melalui kemitraan eksklusif available on Fireworks. Tidak jelas apakah ini untuk memungkinkan organisasi yang ingin server milik sendiri tetap bisa menggunakannya, tetapi menarik melihat apakah pendekatan seperti ini akan makin umum
    “Muse Spark” milik Meta adalah keluarga model yang pada praktiknya benar-benar berbeda dari LLaMa dan berasal dari tim lain, jadi lebih tepat dilihat sebagai produk terpisah daripada mengatakan mereka “menghentikan” open-weight
    Klausul penayangan pada Kimi K2.6 bukan hal yang baru “ditambahkan”, karena the clause has been there since the original K2. DeepSeek juga sudah memakai lisensi MIT biasa sejak R1 dan V3 0324
    Belakangan ini juga ada beberapa rilis open-weight nyata yang menonjol, seperti lini MiMo v2.5, GLM 5.1, dan Gemma 4. Namun, meski arus utama GLM adalah open-weight, beberapa versi fine-tuned seperti lini “Code” bersifat proprietari, dan update 2603 dari Step 3.5 Flash juga tampaknya proprietari. Meski begitu, mereka tetap release their SFT training data, jadi sulit juga untuk terlalu keras mengkritiknya
    Kadang ada juga keterlambatan rilis, dan itu terjadi pada MiMo v2.5/Pro dan GLM 5.1. Namun, sebagai gantinya kadang dukungan SGLang/vLLM sudah siap sejak tak lama setelah peluncuran. MiniMax M2.7 memang beralih ke much more restrictive license, dan tampaknya ini yang tertukar dengan Kimi
    Pendekatan “cari pemasukan dulu lewat API lalu dirilis belakangan” tetap terasa cukup dermawan jika mengingat betapa mahalnya pengembangan model itu sendiri, dan setidaknya untuk sekarang industri tampaknya puas dengan keseimbangan itu

  • GLM 5.1 adalah model open-weight yang sangat kompetitif dan dirilis bulan lalu dengan lisensi MIT. Sudah ada beberapa perusahaan yang menawarkannya sebagai layanan. Model ini dibuat oleh Z.ai, dan seperti perusahaan Tiongkok lain mereka bisa saja menambahkan pembatasan nanti, tetapi saat ini tidak ada pembatasan

    • Buat yang penasaran, ukurannya 1.51TB: https://huggingface.co/zai-org/GLM-5.1/tree/main
    • Saya memakainya bersama OpenCode lewat penyedia Eropa, dan memang cukup mampu bersaing dengan Claude. Saya berharap dalam waktu dekat kita bisa benar-benar lepas dari ketergantungan pada perusahaan besar
      Sebagian orang mengasumsikan semua model Tiongkok sampai tingkat tertentu “didistilasi” dari model besar seperti GPT atau Anthropic. Saya tidak tahu apakah itu benar dan juga tidak terlalu peduli. Bagaimanapun, saya rasa model-model seperti ini seharusnya berada di domain publik, dan saya senang karena tampaknya kita bergerak cepat ke arah itu
  • Saya belakangan berpikir, mungkinkah bisnis lisensi model AI akan makin populer. Maksudnya, membayar sejumlah uang untuk memperoleh hak memakai model, lalu menjalankannya langsung di perangkat keras sendiri. Sedikit mirip penetapan harga Photoshop
    Dengan begitu, pembuat model tetap bisa dibayar sambil menghindari masalah kebocoran informasi sensitif. Keunggulan lainnya, skemanya berupa biaya tetap, bukan tarif per token yang berpotensi sangat mahal. Tentu biaya perangkat keras tetap terpisah

    • Ke depan, saya bisa membayangkan model open-weight dirilis tetapi dengan lisensi yang melarang membakarnya ke silikon. Lalu mereka menjual chip seperti ini: https://taalas.com/products/
  • Kimi K2.5 sejauh ini paling cocok untuk saya, dan saya juga tidak masalah kalau tidak perlu upgrade