- OpenAI dihadapkan pada situasi di mana harus menghimpun dana lebih dari 400 miliar dolar AS dalam 12 bulan ke depan
- Angka ini ditujukan untuk memenuhi rencana ekspansi besar yang mencakup pembangunan pusat data berskala besar, kontrak chip AI, biaya tenaga kerja, dan biaya operasional
- Biaya pembangunan satu pusat data diperkirakan 5 sampai 60 miliar dolar AS, dan OpenAI menetapkan target kapasitas 33GW pada 2029 dan 250GW pada 2033
- Laju dan skala ekspansi ini melampaui batas keuangan dan infrastruktur global, sehingga pencapaiannya nyaris tidak mungkin
- Jika rencana berjalan sesuai jadwal, OpenAI tidak hanya akan memberi tekanan besar pada pasar modal global, tetapi juga memicu risiko serius bagi investor dan industri secara keseluruhan
Ikhtisar
- Untuk mengejar rencana ambisius berupa pembangunan pusat data massal, kontrak chip, dan biaya pemeliharaan di masa depan, OpenAI harus mengamankan pendanaan dengan kecepatan tanpa preseden
- Dalam satu tahun depan sendiri dibutuhkan minimal 400 miliar dolar AS, yang berarti beban yang signifikan tidak hanya bagi OpenAI, tetapi juga bagi sistem keuangan global
- Terdapat perbedaan pandangan terhadap arus peliputan yang menyebut kolaborasi chip kustom 10GW dan komitmen penempatan beberapa GW sebagai sesuatu yang "masuk akal dan dapat dilaksanakan"
- Perlu menaikkan tarif pembangunan 1GW menjadi 50 miliar dolar AS, sekaligus memasukkan biaya total yang mencakup bangunan, infrastruktur daya, dan jaringan
- Dengan mempertimbangkan lead time minimum 2,5 tahun dan kapasitas daya cadangan, maka jadwal tersebut dinilai hampir mustahil untuk dipenuhi
- Kenaikan estimasi dari 32,5 miliar dolar AS per GW menjadi 50 miliar dolar AS per GW dipandang perlu untuk memperbaiki kekurangan perhitungan pada harga chip, jaringan, infrastruktur pendukung, dan kontribusi pihak ketiga
- Contohnya, asumsi harga dan jumlah GB200/Blackwell, pengadaan Lancium, serta skala 8 gedung/50.000 GPU menjadi pemicu kenaikan
Pemeriksaan Timeline Semester Kedua 2026
- Broadcom: menargetkan tapeout chip inferensi, produksi massal, dan penempatan 1GW pada semester kedua 2026
- Masih lokasi belum ditetapkan dan belum dimulai konstruksinya, dan kebutuhan total daya 1,2–1,3GW untuk setiap 1GW IT menunjukkan potensi benturan jadwal yang besar
- AMD: menargetkan penempatan tahap pertama MI450 1GW pada semester kedua 2026
- Untuk menyelesaikan pada waktu itu, pengadaan pada tahun sebelumnya, kontrak daya, dan peletakan fondasi harus sudah dilakukan lebih awal
- NVIDIA: menargetkan penempatan Vera Rubin 1GW pada semester kedua 2026
- Demikian pula, lokasi, daya, dan konstruksi harus sudah berjalan sebelumnya agar jadwal tepat
- Bahkan dengan asumsi konservatif tetap dibutuhkan lebih dari 100 miliar dolar AS, sehingga pembayaran di muka atau konsorsium berskala besar tidak terhindarkan
Keraguan terhadap Klaim Permintaan, Lalu Lintas, dan Kapasitas
- Angka 800 juta MAU per minggu berpotensi tumpang tindih karena perhitungan ganda, dan target 250GW dan 10 triliun dolar pada 2033 dinilai tidak realistis
- Dengan mempertimbangkan estimasi beban IT DC global 55GW pada 2024, peningkatan lima kali lipat selama 8 tahun oleh satu perusahaan tidak memiliki preseden
- Dari sisi kinerja produk, melihat keterbatasan hasil terbaru GPT-4.5, GPT-5, Sora 2, nilai output terhadap pembakaran R&D yang masif dipertanyakan
- Merujuk analisis eksternal bahwa dari pengeluaran R&D sebesar 11–12 miliar dolar AS pada 2024–2025, biaya pelatihan model yang benar-benar dipakai secara langsung relatif terbatas
Item Kebutuhan Dana dalam 12 Bulan (Perkiraan Penulis)
- 1GW untuk Broadcom: sekitar 50 miliar dolar AS
- 1GW + pembelian chip untuk NVIDIA: sekitar 50 miliar dolar AS
- Biaya komputasi 2026 (melalui Oracle, CoreWeave, Azure, GCP): sekitar 40 miliar dolar AS
- 1GW + pembelian chip untuk AMD: sekitar 50 miliar dolar AS
- Pengembangan perangkat konsumen: sekitar 0,5 miliar dolar AS
- Kolaborasi desain CPU berbasis ARM: sekitar 1 miliar dolar AS
- Penyesuaian OPEX lain-lain (penjualan, pemasaran, gaji, dll.): sekitar 10 miliar dolar AS
- Total 391,5 miliar dolar AS ≈ 400 miliar dolar AS, dengan kebutuhan likuiditas besar sebelum Februari 2026
Batasan Finansial dan Risiko Struktural
- Dengan konteks estimasi pengeluaran R&D 6,7 miliar dolar AS dan S&M 2 miliar dolar AS pada paruh pertama 2025, terjadi arus kas keluar yang berkelanjutan
- Dibandingkan estimasi 9,2 miliar dolar AS konsumsi komputasi dan 4,3 miliar dolar AS pendapatan pada paruh pertama 2026, ini menunjukkan struktur margin terbalik
- Batas waktu transisi non-profit menjadi profit serta syarat SoftBank 20 miliar dolar AS yang bersyarat menghadirkan risiko tata kelola dan milestone kontrak
- Kondisi konversi utang Oktober 2026 dari ronde 6,6 miliar dolar AS tahun 2024 juga menjadi beban tambahan
Kelayakan Deal Infrastruktur seperti Oracle dan CoreWeave
- Kontrak 3.000 miliar dolar AS selama 5 tahun dengan Oracle diperkirakan membutuhkan 4,5GW IT
- Stargate Abilene saat ini baru mengamankan 200MW daya, dan ketika mempertimbangkan daya cadangan turun menjadi sekitar 130MW IT
- Situs Shackelford 1,4GW masih dalam fase awal konstruksi; dengan target gedung pertama pada H2 2026, operasi penuh diperkirakan terjadi setelah 2027
- Memperhitungkan pernyataan CoreWeave pada akhir 2025 mengenai level hingga 900MW, selisihnya sangat besar terhadap klaim "2GW operasional pada 2025"
Batasan Pasar Modal, Rantai Pasok, dan Jaringan Listrik
- Kebutuhan pendanaan ini melebihi 368 miliar dolar AS VC global 2024, dan bila dibandingkan dengan deal private equity dan perdagangan global, tetap jelas adanya batas serapan
- Terdapat bottleneck sekaligus pada transformator, baja listrik, infrastruktur HV, pendinginan, margin cadangan grid, dan tenaga kerja terampil, sehingga benturan jadwal hampir tak terelakkan
- Keseluruhan pengumuman ini tampak sangat berwarna narasi untuk mendorong aksi harga saham dan transaksi, dan tingkat kelayakan eksekusi dinilai rendah
Kesimpulan
- Dengan kendala nyata terkait waktu, pendanaan, sumber daya, regulasi, dan listrik, pencapaian tenggat hingga 2026 sangat sulit
- Dalam 12 bulan ke depan, penggalangan 400 miliar dolar AS pun memiliki batas kemampuan serap dari perspektif pasar modal global, dan jika tidak terpenuhi dapat memperluas risiko kepercayaan
- Intinya adalah ketidakseimbangan antara janji kapasitas yang berlebihan dan realitas permintaan, daya saat produk, dan arus kas; tanpa normalisasi ulang rencana, perbaikan tata kelola, dan redesain struktur pendanaan, model ini tidak berkelanjutan
1 komentar
Komentar Hacker News
Bahkan jika tingkat pertumbuhan OpenAI terlihat mengesankan, ada pandangan bahwa bertambah 100 juta pengguna hanya dalam dua bulan tidak berarti seluruh umat manusia akan selalu memakai layanan ini. Sebaliknya, dengan laju pertumbuhan secepat ini, bisa juga diklaim ada potensi seluruh manusia memakainya secara terus-menerus. Namun, karena kurva pertumbuhan bisa berbentuk S, perlu diingat bahwa pertumbuhan eksponensial tidak akan berlangsung tanpa batas
Bertambah 100 juta pengguna dalam dua bulan bukan bukti bahwa semua orang di bumi akan selalu membutuhkannya. Popularitas dan kegunaan adalah hal yang berbeda. Data tentang dampak peningkatan penggunaan LLM terhadap indikator seperti produktivitas akan lebih meyakinkan. Bahkan, beberapa studi justru menunjukkan penurunan produktivitas pada pekerjaan profesional. Lihat studi terkait
Baru belakangan ini saya pribadi mencoba ChatGPT sebagai pengganti pencarian sekaligus untuk hal-hal ringan. Karena pencarian tradisional belakangan ini benar-benar berantakan, rasanya seperti petinju yang kondisinya serba tanggung melawan juara berusia 70 tahun. Kalau suatu saat ini bisa berjalan di laptop saya, rasanya ini bisa jadi alat yang benar-benar berguna
Bottleneck OpenAI awalnya berpindah dari GPU ke energi. Bottleneck berikutnya adalah “manusia biologis”. Ada juga candaan bahwa mungkin OpenAI akan menemukan cara menciptakan lebih banyak manusia agar laju pertumbuhannya tetap terjaga
Dalam jangka panjang, jika AI yang cukup berguna tertanam di berbagai produk seperti browser, OS, smartphone, dan word processor, pasar AI mandiri untuk publik bisa menyusut drastis. Alat khusus, riset mutakhir, dan tool coding mungkin akan tetap dibutuhkan, tetapi saya rasa sulit membangun perusahaan bernilai triliunan hanya dari itu
Kenyataannya, hanya sekitar 5% orang yang mendaftar dan membayar $20. Seperti VR atau AR, kalau gratis orang mungkin kadang memakainya, tetapi tidak cukup perlu sampai mau membayar sendiri. Saya pikir LLM sudah menjadi komoditas
Isi artikelnya menarik, tetapi sebenarnya ancaman terbesar bagi OpenAI atau Anthropic secara praktis adalah model open source. Model seperti deepseek dan llama 3 berkembang sangat cepat, jadi kalau fitur yang hampir sama bisa dipakai dengan biaya jauh lebih kecil atau gratis di GPU saya sendiri, saya jadi bertanya-tanya apa nilai lebih yang bisa ditawarkan OpenAI. Saya sendiri berlangganan OpenAI berbayar, tetapi sejujurnya itu karena kemudahannya, dan sejauh ini cukup berguna untuk hal seperti verifikasi matematika. Kalau melihat harganya, saya ragu ini benar-benar bisa menjadi layanan yang wajib bagi perusahaan. Tentu saja, OpenAI punya talenta terbaik dan dukungan investasi, jadi bisa saja saya salah
Memang open source seperti deepseek dan llama 3 berkembang cepat, tetapi melatih model skala besar memerlukan biaya yang sangat besar, dan apa yang dirilis sebagai open source saat ini pada dasarnya terjadi karena perusahaan-perusahaan komersial rela menanggung kerugian demi ekosistem open source. Saya penasaran, kalau perusahaan-perusahaan ini suatu saat mengejar profit dan “menarik tangga setelah mereka naik”, apakah ada solusinya
Poin yang ingin ditegaskan penulis adalah bahwa kita perlu melihat angka-angka aktual secara realistis. Bahkan mencari orang untuk membangun dan mengoperasikan data center pun memerlukan waktu yang cukup lama. Argumennya adalah jadwal yang diajukan artikel saat ini tidak realistis
Uang dalam jumlah besar memang digelontorkan dalam jangka pendek, tetapi saya ragu sebenarnya permintaan nyata datang dari mana, dan seberapa besar model self-service seperti “menjalankan llama langsung di GPU saya” benar-benar berkontribusi pada pendapatan. Ada sesuatu yang terasa janggal
Untuk menjalankan deepseek, kimi, atau glm dengan cepat di GPU saya sendiri, saya butuh setidaknya lebih dari $50,000 hanya untuk hardware. Untuk mendekati performa OpenAI atau Anthropic, dibutuhkan VRAM cepat ratusan GB atau lebih
Kebanyakan orang memakai OpenAI karena mereka tidak terlalu paham IT. Dalam kehidupan nyata, hampir tidak ada orang biasa yang memakai ad blocker. OpenAI sudah tertanam dalam persepsi publik. Kalau mereka seperti Google dan menyisipkan iklan, posisi mereka mungkin akan jauh lebih kuat, tetapi memilih ekonomi gelembung dan penipuan investasi adalah salah langkah
Semua orang perlu tenang. Altman akan mengurus semuanya. Dalam 47 hari akan muncul produk bernama ChatGPT 6 Recurd yang akan mengejutkan semua orang; alih-alih model yang lebih baik, ia akan mendaur ulang model lama, lalu otomatis menambahkan pembelian 10 paket ChatGPT 6 agar berjalan jauh lebih baik. Setelah itu, upgrade akan dipercepat dengan peningkatan performa 1% secara berulang. Pertumbuhan super-hipergeometris mudah diremehkan. Pada awal 2026, mereka akan menjual triliunan lisensi tanpa batas jumlah pelanggan manusia. Altman bahkan sudah menyiapkan koin khusus, sistem pinjaman otomatis, dan perdagangan futures komputasi untuk semua ini. Ini benar-benar dunia baru. Sebuah dunia baru bernama “Alt/World!”
Saya penasaran kenapa data center diukur dalam satuan “gigawatt”. Kenapa tidak diukur berdasarkan performa komputasi nyata seperti flops? Sebenarnya saya juga berpikir “data center 1 GW” bisa saja dibuat dengan satu CPU 6502 dan segunung resistor
Alasannya karena kapasitas listrik dan pendinginan adalah kendala terbesar dalam pembangunan data center. Performa komputasi berubah banyak seiring waktu, dan pada praktiknya 1GW dengan chip terbaru seperti GB200 kira-kira bisa memberikan sekitar 5 exaflops komputasi, tergantung presisi dan faktor lainnya
Saya juga baru-baru ini mendapatkan pengalaman, meski dalam skala kecil, mengoperasikan HW/data center, dan saya merasa selain GPU, switch, firewall, storage, dan lainnya juga menghabiskan banyak daya dan pendinginan. Setelah melewati skala tertentu, kendala utamanya bukan lagi performa komputasi maksimum, Hz, atau GB, tetapi seberapa banyak listrik yang bisa dimasukkan dan seberapa cepat panasnya bisa dibuang ke luar. Misalnya, ada juga proyek di pelabuhan yang menghabiskan surplus listrik tenaga surya dengan resistor skala besar. Masalahnya adalah bagaimana terhubung dengan aman ke jaringan listrik tegangan tinggi dan membuang panas dengan cepat
Satuan performa komputasi berbeda-beda tergantung hardware dan workload, jadi praktis mustahil ada ukuran universal. Kapasitas daya bisa dilihat sebagai pendekatan terhadap kapasitas komputasi maksimum yang mungkin pada titik waktu tersebut. Ini juga mencakup berbagai variabel seperti wilayah dan metode pendinginan
Hitungan kasar di belakang amplop menunjukkan 1GW bisa menyalakan sekitar 1,43 miliar chip 6502
Alasan satuan yang dipakai adalah “daya” karena itulah satuan akhir dari semua biaya, termasuk efisiensi komputasi, investasi peralatan, dan skalabilitas
Saya ingin menekankan bahwa dibanding modal awal untuk membangun data center, pemasok listriklah yang benar-benar menjadi batas industri ini. Saat ini jaringan listrik Amerika Utara sangat kekurangan pasokan. Perlu investigasi mendalam tentang berapa banyak pasokan listrik cadangan yang benar-benar bisa dipakai data center skala besar dan kapan penambahan kapasitas bisa dilakukan. Membangun pembangkit listrik adalah bisnis yang sangat lambat. Kebanyakan rencana investasi data center tampaknya berasumsi bahwa kapasitas listrik akan muncul secara “ajaib” atau bahwa tidak ada persaingan atas kapasitas itu
Ada masalah dengan klaim bahwa “OpenAI akan membakar $400 miliar dalam satu tahun ke depan”. Faktanya, bukan OpenAI yang berinvestasi langsung; Oracle dan pihak lain yang membangun data center, lalu OpenAI membayar sewa. Karena ini kontrak sewa, mereka tidak perlu menyediakan seluruh biaya konstruksi di depan. Sebagai contoh, OpenAI akan mulai membayar sewa tahunan di kisaran $30 miliar mulai 2027/2028, dan jumlahnya meningkat bertahap selama 5 tahun. NVIDIA dan AMD juga mendapatkan kembali investasinya sesuai milestone atau adopsi chip, dan justru pemasoklah yang memberikan kredit dengan “bertaruh” pada pertumbuhan OpenAI. Ini memang struktur yang sangat tidak biasa dan bisa terasa rapuh, tetapi logika bahwa mereka “harus punya $400 miliar tunai sekarang” itu keliru. Pertanyaan sebenarnya adalah apakah pendapatan OpenAI bisa tumbuh setidaknya menjadi $60–70 miliar pada 2028–2029. Jadi klaim itu tidak berdiri, dan justru timeline eksekusi serta progres pertumbuhan pendapatanlah yang menjadi risiko. Tautan referensi: CNBC - data center OpenAI, w.media - kontrak sewa Oracle, CNBC - kerja sama Nvidia, TechCrunch - pasokan chip AMD
Ed Zitron sebagai analis membuat banyak klaim yang salah dan kekeliruan faktual. Ia juga menulis posting yang bersikeras bahwa “biaya inferensi” akan naik Tulisan terkait
WAU (weekly active users/pengguna aktif mingguan) OpenAI tumbuh sekitar 122,8% secara annualized, tetapi turun dari 461,8% sekitar 10 bulan lalu. Jika laju pertumbuhan ini stabil, pendapatan tahunan mereka bisa mencapai maksimal $104 miliar dan 6,4 miliar WAU pada akhir 2028. Angka ini tentu tidak pasti, tetapi Oracle dan Nvidia seolah harus mempertahankan harga saham mereka berdasarkan asumsi itu. Dalam praktiknya, perlambatan pertumbuhan sekitar 20% setiap 2 bulan, jadi sekitar waktu yang sama tahun depan kemungkinan hanya sekitar 1,2 miliar WAU, dan tahun berikutnya paling sekitar 1,4 miliar WAU. Itu masih lebih rendah dibanding Google atau Facebook
Karena OpenAI bertahan lewat model sewa, pada dasarnya risiko nyata makin lama makin bergeser ke investor lapis bawah, atau ke masyarakat umum dan peserta dana pensiun lihat Turtles all the way down
Melihat Sora 2 dan kontroversi animasi, saya jadi tahu bahwa satu musim anime TV rata-rata atau satu film bisa diproduksi dengan biaya sekitar $10–20 juta. Saya tidak tahu berapa biaya pengembangan Sora 2 sebenarnya, tetapi kalau nilainya ratusan miliar hingga triliunan, uang sebanyak itu bisa dipakai membuat ribuan karya animasi seperti ini. Ini memang agak jauh dari LLM, tetapi pada akhirnya meski AI menggantikan tenaga ahli, saya tetap ragu apakah keuntungan terhadap investasinya akan masuk akal
Sebenarnya, saya rasa biaya pengembangan Sora 2 kemungkinan jauh lebih kecil daripada puluhan miliar
Saya ragu apakah Sora 2 benar-benar bisa dipakai memproduksi sebuah “show”. Selama ini saya selalu hanya mendengar soal video pendek; untuk membuat serial resmi rasanya masih butuh lompatan teknologi lagi
Dengan tool seperti Sora dan Google Flow, ke depan amatir pun mungkin bisa memproduksi konten dengan kualitas profesional secara murah. Membuat ribuan animasi bukan lagi wilayah yang mustahil
Menurut saya, investasi raksasa seperti ini hanya masuk akal jika diimbangi oleh sesuatu yang lebih besar daripada sekadar ROI chatbot biasa
Saya penasaran seberapa cepat uang sebanyak ini benar-benar bisa dialokasikan ke pembangkit listrik, data center, desain dan produksi silikon, dan sebagainya; apakah industri infrastruktur juga akan mengalami fase koreksi besar setelah gelembung yang melesat cepat, atau justru kita akan melihat transformasi setingkat revolusi industri yang nyata. Ada juga ajakan untuk ikut mendirikan startup infrastruktur sistem embedded berkeamanan tinggi
Ada pertanyaan mengapa Anthropic tidak memiliki kebutuhan modal yang serupa
Anthropic lebih konservatif dalam mengungkap biaya. Ed Zitron saat ini sedang fokus melacak biaya GCP mereka
Ini adalah pembahasan tentang pembangunan “AGI”, jadi terpisah dari layanan Anthropic saat ini. Selain itu, tidak ada jaminan bahwa kecerdasan akan terus meningkat tanpa batas seiring bertambahnya komputasi
Sebenarnya Anthropic kemungkinan juga memerlukan investasi serupa. Hanya saja penulis tampaknya berfokus pada OpenAI
Jika pertumbuhan terus berlanjut, Anthropic juga akan membutuhkan investasi besar-besaran
Anthropic tampaknya lebih agresif memakai TPU saat overflow. Penurunan performa Claude baru-baru ini tampaknya karena bug pada TPU dan perbedaan implementasi, dan dari situ kita bisa sedikit menebak pola operasi campuran Nvidia/TPU mereka. Saya belum pernah mendengar bahwa OpenAI mendistribusikan workload ke infrastruktur Google
Saya juga ingin bertanya bagaimana model capex data center bisa berubah jika targetnya adalah utilisasi 100% dan yang lebih penting bukan node uptime, melainkan efisiensi capex. Saya rasa masih ada ruang agar biaya turun ke kisaran satu hingga dua digit tergantung bagaimana NVidia dan pihak lain menyesuaikan margin. Jika OpenAI membangun data center berkeandalan lebih rendah dari biasanya di lokasi murah, menurut saya ini sedikit lebih masuk akal. Namun, OpenAI tetap sangat mungkin menggelontorkan lebih dari $40 miliar ke data center sampai tahun depan. Data center tradisional sangat sensitif terhadap availability, tetapi pada skala seperti ini saya rasa OpenAI tidak akan terlalu peduli pada rack uptime atau uptime fasilitas secara keseluruhan