2 poin oleh GN⁺ 2 hari lalu | 1 komentar | Bagikan ke WhatsApp
  • Kekurangan pasokan DRAM umum diperkirakan akan berkepanjangan, dengan proyeksi bahwa hingga akhir 2027 pasokan produsen hanya mampu memenuhi 60 persen dari permintaan
  • Untuk memenuhi permintaan, diperlukan kenaikan produksi 12 persen per tahun pada 2026 dan 2027, tetapi kenaikan yang direncanakan hanya 7,5 persen
  • Samsung, SK Hynix, Micron semuanya sedang mendorong perluasan kapasitas produksi, tetapi sebagian besar fasilitas baru baru akan mulai beroperasi pada 2027 atau 2028
  • Fasilitas baru terutama berfokus pada produksi HBM, dan HBM untuk pusat data AI diprioritaskan dibanding DRAM umum untuk komputer dan ponsel, sehingga belum terlihat dampak perbaikan pada pasokan memori konsumen
  • Dampak kekurangan ini telah menyebabkan kenaikan harga phones, laptops, VR headsets, gaming handhelds, dan menyoroti potensi meluasnya tekanan harga di seluruh elektronik konsumen

Prospek kekurangan pasokan

  • Meski perluasan produksi DRAM sedang berlangsung, hingga akhir 2027 pasokan produsen diperkirakan hanya memenuhi 60 persen dari permintaan
  • Kekurangan RAM bisa berlanjut hingga 2027 menurut laporan Nikkei Asia, dan ketua SK Group menyebut kemungkinan berlanjut sampai 2030
  • Samsung, SK Hynix, Micron, tiga perusahaan memori terbesar di dunia, semuanya sedang mendorong kapasitas produksi baru, tetapi sebagian besar fasilitas baru baru akan beroperasi pada 2027 atau 2028
    • Sebagai contoh kenaikan produksi pada 2026, pabrik SK yang mulai beroperasi di Cheongju pada Februari adalah satu-satunya kasus
  • Untuk memenuhi permintaan, diperlukan kenaikan produksi 12 persen per tahun pada 2026 dan 2027, tetapi menurut Counterpoint Research kenaikan yang direncanakan hanya 7,5 persen
  • Fasilitas baru terutama berfokus pada produksi HBM, dan karena HBM untuk pusat data AI sudah diprioritaskan dibanding DRAM umum untuk komputer dan ponsel, belum terlihat efek yang meringankan tekanan harga pada elektronik konsumen

Dampak pada produk konsumen

  • Kekurangan DRAM umum telah memicu kenaikan harga pada elektronik konsumen
  • Contoh produk yang mengalami kenaikan harga mencakup phones, laptops, VR headsets, gaming handhelds
  • Belum dapat dipastikan seberapa besar kontribusi pabrik baru dalam memperbaiki pasokan memori untuk konsumen

1 komentar

 
GN⁺ 2 hari lalu
Opini Hacker News
  • Menurut pemahaman saya, Samsung, SK Hynix, dan Micron tidak punya kapasitas produksi untuk memenuhi permintaan, dan stok yang ada pun diprioritaskan ke HBM ketimbang DRAM. HBM tampaknya tidak mudah dialihkan ke elektronik konsumen, jadi dalam 3~4 tahun ke depan pasar konsumen umum kelihatannya akan cukup terpukul. Ditambah lagi, OpenAI juga terikat tekanan modal, dan karena pertanyaan soal burn rate dan pendapatan makin membesar, saya rasa ada kemungkinan bahkan komitmen pembelian yang memicu kepanikan RAM kali ini pun tidak akan dipenuhi sampai akhir, sehingga pada akhirnya produsen memori bisa saja malah menanggung persediaan berlebih

    • Ini mengingatkan saya pada Radeon VII tahun 2019, GPU konsumen seharga 700 dolar yang sudah mencapai bandwidth 1TB/s dengan HBM2. Saat itu AMD bahkan memasukkan HBM sampai ke lini menengah, jadi saya agak sulit menerima kenapa teknologi yang dulu bisa dijual ke konsumen biasa sekarang dibicarakan seolah sesuatu yang mahal dan istimewa seperti teknologi dewa
    • Faktor regional juga besar. Di Belanda, karena jaringan listrik sudah jenuh, perusahaan yang ingin membangun data center sudah membayar biaya dan bahkan mendapat jaminan koneksi, tetapi tetap diberi tahu bahwa mereka sulit terhubung sebelum 2030. Itu berarti kapasitas memori seolah sudah dipesan dengan asumsi data center yang bahkan belum dibangun, jadi kalau pembangunannya ditunda atau dibatalkan, hubungan pasokan dan permintaan bisa makin kacau
    • Rasanya struktur di mana produsen memori menanggung beban di akhir terus berulang. Saya rasa saya sudah melihat adegan seperti ini setidaknya tiga kali
    • Meski begitu, kali ini produsen memori tidak melakukan ekspansi besar seperti dulu, dan justru itulah yang menurut saya merupakan pilihan untuk menghindari ledakan inventaris
    • Saya kira tambahan kapasitas akan bergeser ke arah kelebihan pasokan lebih cepat dari perkiraan seiring runtuhnya berbagai janji pembangunan infrastruktur dari Altman. Sektor keuangan juga tampaknya mulai sadar bahwa infrastruktur seperti itu tidak bisa dibangun secepat itu, dan bahkan kalau dibangun pun belum tentu menghasilkan keuntungan
  • Pertanyaan yang belum bisa saya rapikan adalah ini. Kalau AI membuat pembuatan perangkat lunak lebih mudah, harga akan turun, tetapi dalam situasi di mana skala belanja AI sudah beberapa kali lebih besar daripada total belanja perangkat lunak dunia, saya tidak tahu bagaimana perusahaan software bisa menanggung biaya itu. Karena itu, permintaan RAM saat ini terasa seperti fondasi di atas pasir, dan pada akhirnya tampak sangat mungkin berbalik menjadi kelebihan pasokan skala besar

    • Saya tidak melihatnya sepesimistis itu. LLM sudah cukup berguna sebagai alat sehingga tidak akan hilang, dan masalah utamanya pada akhirnya adalah skalabilitas dan penurunan biaya. Kalau perusahaan kecil belum bisa memakainya, perusahaan besar tetap bisa lebih dulu menemukan berbagai use case di bidang pertahanan, pengembangan sumber daya, dan keuangan. Sebaliknya, kalau biayanya cukup turun, tim kecil juga akan memakainya, tetapi jika terlalu murah bisa muncul paradoks bahwa calon konsumen justru membuat software sendiri di rumah
    • Menurut hitungan analis, dibutuhkan langganan baru senilai 35 dolar per bulan untuk setiap pengguna iPhone, atau 180 dolar per bulan untuk setiap pelanggan Netflix. Meski harga Claude Max naik, saya tetap ragu semua pengguna Netflix mau membayar biaya sebesar itu. Untuk konteks terkait, bisa lihat artikel Tom's Hardware
    • Semua orang tampaknya bertaruh pada Jevons paradox. Artinya mereka berharap AI menjadi semikonduktor berikutnya, internet berikutnya
    • Saya melihat ini seperti kuda Troya. Rasanya seperti strategi yang berharap dunia akhirnya terbiasa dan bergantung pada teknologi ini
  • Saya rasa situasi ini akan berlangsung lama. Setelah pandemi, produsen belajar bahwa membatasi pasokan memaksimalkan keuntungan, dan kalau melihat harga mobil yang tidak mudah turun seperti dulu, besar kemungkinan RAM juga menempuh jalan yang sama. Tidak seperti pelanggan besar seperti Apple atau OpenAI, konsumen biasa tidak bisa membuat kontrak besar, jadi pada akhirnya kitalah yang akan menanggung biayanya

  • Saya agak optimistis. Saya berharap kejadian ini menjadi peringatan bagi developer yang memakai RAM sembarangan, sehingga aplikasi ke depan mau tidak mau akan menjadi lebih efisien memori

    • Menurut saya ini agak bertumpuk dengan gambaran setelah krisis minyak 1973, ketika era mesin V8 mulai meredup
    • Namun pendorong permintaan saat ini terutama adalah inference, jadi saya rasa belum tentu developer punya motivasi mendesak untuk benar-benar mengoptimalkan
    • Saya berharap Electron kehilangan pamor karena ini. Saya memang tidak pernah paham kenapa sesuatu yang cukup ditampilkan dengan 500KB harus dijalankan lewat aplikasi 300MB lebih
      • Itu benar-benar terasa seperti skenario impian
    • Untuk memakai RAM lebih sedikit, kita sering kali harus memakai CPU lebih banyak, jadi walaupun harga RAM naik, secara keseluruhan sering kali itu bukan trade-off yang baik
  • Saya heran artikel itu sama sekali tidak menyebut TurboQuant dari Google. Teknologi ini diumumkan 26 hari lalu, dikabarkan mengurangi memori KV cache sampai 6 kali lipat dan meningkatkan kecepatan hingga 8 kali, dan sudah masuk ke llama.cpp sehingga bisa membantu menjalankan konteks yang lebih besar tanpa harus berkompromi memakai model yang lebih kecil. Tentu saja saya sendiri masih skeptis apakah ini akan banyak meredakan masalah RAM. Kemungkinan besar permintaan akan lebih besar daripada penghematan yang dihasilkan. Untuk tautan terkait, lihat postingan HN ini

    • Di industri juga cukup kuat anggapan bahwa TurboQuant bukan SOTA mutakhir. Ada metode kuantisasi KV per bitrate yang lebih baik, misalnya alternatif seperti SpectralQuant. Selain itu, angka 6 kali itu adalah angka dengan gaya perbandingan terhadap KV cache BF16, jadi jika dibandingkan dengan metode 8-bit atau 4-bit yang sudah ada, ceritanya jadi berbeda
    • Ada juga koreksi yang perlu dibuat. Makalah TurboQuant sebenarnya terbit di arXiv April 2025, dan implementasi saat ini tingkat kompresinya kira-kira berada di kisaran 3,8 sampai 4,9 kali, sementara angka tertinggi itu harus mengorbankan penurunan performa GSM8K yang cukup besar. Dari sisi kecepatan juga berada di kisaran 80~100% terhadap baseline, jadi bisa saja tidak ada peningkatan atau malah lebih lambat. Status implementasi bisa dilihat di vLLM PR, dan diskusinya di isu vLLM. Secara pribadi saya sedang bereksperimen dengan DMS, yang menurut saya tampak lebih menjanjikan dan bisa dipakai bersamaan dengan kuantisasi lain. Penghematan yang lebih besar datang dari perbaikan arsitektur model seperti SWA global hybrid di Gemma 4, MLA, DSA, linear layer, dan SSM, tetapi menurut saya semua itu pada akhirnya juga tidak akan mengurangi total permintaan memori karena Jevons paradox. Hanya alat coding saya saja sudah memakai 10 sampai 15 miliar cache token per bulan, dan kalau agent serta penggunaan developer arus utama bertambah, tampaknya praktis tidak ada batas atas pada jumlah token yang diinginkan orang
    • Menurut saya, pekerjaan pada model lokal yang menargetkan RAM rendah dan VRAM rendah jelas membantu. Misalnya Gemma 4 32B bisa dijalankan di laptop komersial dan terasa setara atau lebih baik daripada kecerdasan gpt-4o yang merupakan SOTA dua tahun lalu. Saat harga memori stabil nanti, saya berharap level Opus 4.7 pun bisa dijalankan secara lokal. Model besar memang punya lebih banyak pengetahuan bawaan, tetapi banyak hal bisa ditutup jika model cukup tepat dalam memutuskan pemanggilan alat seperti pencarian web
    • Menurut saya efek bersihnya bukan mengerjakan hal yang sama dengan memori lebih sedikit, melainkan mengerjakan lebih banyak hal dengan memori yang sama. Perusahaan akan memperbesar context window produk yang mereka tawarkan, dan orang-orang akan langsung memakainya. Itulah kenyataan yang agak pahit tentang masa depan memori
    • Namun biaya untuk memuat model itu sendiri ke dalam memori tetap besar. Misalnya jika RAM hanya 16GB, menurut saya manfaat yang terasa tidak akan sebesar itu
  • Saya juga heran artikel itu tidak membahas produsen memori baru di Tiongkok. Sebagai contoh terkait, saya teringat artikel ini

    • Seperti juga disebut dalam artikelnya, CXMT tertinggal sekitar 3 tahun di proses DRAM canggih dibanding Samsung, SK Hynix, dan Micron, dan lini paruh kedua 2026 tampaknya sulit memberi dampak besar pada keseimbangan pasokan global sebelum 2027. Sementara itu artikel aslinya melihat permintaan melampaui pasokan pada 2028, jadi titik ketika produksi Tiongkok mengejar tingkat teknologi saat ini bisa jadi baru sekitar 2029. Dalam jangka panjang itu akan membantu menurunkan harga, tetapi dari sudut pandang saya efisiensi produksi mereka belum cukup untuk mencegah kelangkaan dalam waktu dekat
  • Belakangan ini saya ingin merakit PC gaming baru, tetapi terus menundanya karena kejutan harga dan masalah ketersediaan komponen satu per satu. Lalu saya kebetulan melihat di Microcenter dekat rumah sebuah prebuilt spek penuh yang pada dasarnya sudah berisi 5090 dan PSU kelas atas dengan harga di bawah 5.000 dolar, jadi saya langsung membelinya. Sepuluh tahunan lalu, prebuilt adalah pilihan yang hanya diambil kalau Anda benar-benar punya banyak uang dan bahkan tidak punya satu hari akhir pekan untuk dipakai, tetapi sekarang rasanya justru menjadi pilihan yang nyaris tidak perlu dipikirkan

    • Saya tetap melihat prinsip dasarnya sebagai merakit sendiri lebih menguntungkan. Prebuilt pasti secara struktural lebih mahal karena termasuk biaya perakitan, dan bukan tidak mungkin ada kompromi pada komponen yang kurang mencolok seperti motherboard atau PSU. Tentu saja bisa saja Anda menemukan deal bagus, tetapi menurut saya pengecualian itu tidak mengubah prinsip umumnya
  • Saya penasaran apakah kejadian ini akan menjadi momentum yang mendorong kita memakai software yang lebih efisien memori. Sekarang terlalu sering rasanya program yang sangat sepele pun memakan RAM ratusan MB

    • Saya sendiri juga memang pernah secara eksplisit menjadikan penurunan penggunaan RAM sebagai tujuan saat melakukan vibe-coding
  • Saya senang karena rasanya akhirnya era optimisasi datang juga

    • Tapi saya agak skeptis. Aplikasi yang saya pakai umumnya punya lock-in yang kuat, jadi sering kali tidak ada kemauan organisasi untuk mengoptimalkan, atau sebaliknya tidak ada sumber daya untuk melakukannya. Karena itu optimisasi yang realistis bagi saya hanyalah meninggalkan alat berat dan pindah ke alat yang lebih ringan, sambil berharap banyak pilihan seperti itu pada akhirnya memperbaiki pendanaan dan sumber daya pengembangan alat-alat ringan
    • Sudah lama saya mengatakan bahwa developer OS perlu fokus pada optimisasi yang berani. Bahkan tanpa kelangkaan chip pun, perlambatan miniaturisasi semikonduktor sudah berlangsung, dan optimisasi software membantu semua hardware tetapi tidak langsung mendorong penjualan. Dalam hal itu Linux lebih tidak terikat, dan saya bahkan membayangkan mungkin pilihan seperti Haiku OS bisa kembali mendapat perhatian
  • Di mata saya, produsen RAM masih terlihat enggan menambah produksi. Saya penasaran apakah para produsen melihat sinyal permintaan jangka panjang yang tidak diketahui investor

    • Mereka sudah beberapa kali terbakar parah di masa lalu. Industri DRAM punya sejarah panjang siklus naik-turun, dan setiap kali permintaan naik semua orang membangun fab baru, lalu harga anjlok, investasi tidak kembali, dan perusahaan bangkrut. Itu terjadi pada era 80-an, 90-an, dan 2000-an, dan sekarang hanya tiga produsen yang tersisa, jadi saya rasa mereka memahami lebih baik daripada siapa pun bahwa permintaan pada dasarnya bersifat siklikal
    • Industri semikonduktor sudah menjadi industri boom and bust selama lebih dari 50 tahun. Ada gambar terkait, dan dalam 30 tahun karier saya di industri ini, saya sendiri pernah mengalami masa ketika hanya bisa memenuhi 30% pesanan pelanggan dan dua tahun kemudian mengalami kerugian dengan utilisasi fab 50%. Membangun satu fab mutakhir butuh 20 miliar dolar dan 3~4 tahun, jadi kalau Anda menganggap AI mungkin saja gelembung, maka pilihan yang berujung hanya meninggalkan pabrik kosong yang mengilap setelah permintaan runtuh terasa terlalu berisiko
    • Saya rasa siapa pun yang melihat kenyataan akan berpikir serupa. Komitmen pembelian OpenAI tampak terlalu tidak realistis dan tidak berkelanjutan
    • Dari sudut pandang mereka, skenario rugi mungkin juga tidak terlalu besar. Strukturnya pada dasarnya hampir seperti kartel, dan RAM adalah produk yang bagaimanapun tetap dibutuhkan, jadi meski mereka memproduksi lebih sedikit, mereka mungkin sudah menghitung keseimbangan harga dan permintaan untuk mendapatkan rasio risiko-imbalan yang paling menguntungkan bagi diri mereka. Bukan kesukaan konsumen atau reputasi yang penting, melainkan fakta bahwa pasar lebih membutuhkan mereka