8 poin oleh GN⁺ 6 hari lalu | 5 komentar | Bagikan ke WhatsApp
  • Seiring komoditisasi kecerdasan AI makin cepat, saat semua perusahaan terjun ke persaingan model terbaik, Apple justru mengamankan posisi yang lebih menguntungkan berkat cadangan kas yang sangat besar
  • Meski memiliki valuasi $300B, OpenAI menghadapi realisasi risiko investasi infrastruktur tanpa model pendapatan, terlihat dari penghentian layanan Sora dan pembatalan Stargate Texas
  • Berkat 2,5 miliar perangkat aktif dan arsitektur pemrosesan on-device, Apple memiliki parit berupa data konteks pribadi dan desain berfokus privasi
  • Model open-weight Gemma 4 menunjukkan performa setara Claude Sonnet 4.5 Thinking dan sudah bisa dijalankan di laptop, menandakan kesenjangan model menyusut dengan cepat
  • Arsitektur unified memory Apple Silicon memungkinkan model besar dijalankan secara lokal, dan framework MLX membentuk fondasi untuk memperluas ekosistem
  • Baik hasil strategi maupun kebetulan, Apple kini memiliki fondasi hardware-software yang dioptimalkan untuk era AI dan telah memperoleh keunggulan kompetitif baru

‘Parit Tak Disengaja’ Apple yang “Kalah” dalam Persaingan AI

  • Dalam tren kecerdasan yang makin terkomoditisasi, semakin baik model yang dibuat perusahaan, semakin cepat pula model pesaing menyusul
    • Investasi pelatihan skala besar menurunkan biaya model generasi sebelumnya, dan jarak antara frontier model dan model open source menyempit sangat cepat
    • Open model terbaru seperti Gemma 4, Kimi K2.5, dan GLM 5.1 telah mencapai tingkat yang cukup layak dijalankan di hardware pribadi
    • Sebaliknya, OpenAI dan lainnya menghadapi pertanyaan soal keberlanjutan akibat struktur biaya yang sangat besar dan model pendapatan yang tidak stabil
  • Perubahan ini justru menguntungkan Apple yang sebelumnya disebut “pecundang AI”
    • Apple memiliki Siri lebih awal dari siapa pun, tetapi setelah rilis ChatGPT, karena tidak punya frontier model flagship maupun janji investasi komputasi senilai $500B, Apple diklasifikasikan sebagai “pecundang AI”
    • Saat lab AI lain dan big tech menghabiskan dana besar untuk meraih peringkat 1 benchmark terbaru, Apple menumpuk kas yang tidak terpakai dan bahkan memperluas buyback saham, sehingga opsinya tetap lebar

Belanja Berlebihan dan Risiko OpenAI

  • Setelah menggalang dana dengan valuasi $300B, OpenAI mengoperasikan layanan video Sora dengan biaya harian sekitar $15M melawan pendapatan $2.1M, dan pada akhirnya menghentikan layanan tersebut
  • Disney sempat menandatangani kontrak lisensi 3 tahun untuk Sora guna menghasilkan konten karakter Marvel, Pixar, dan Star Wars, serta mendorong investasi ekuitas $1B ke OpenAI, tetapi penghentian Sora membuat investasi $1B itu batal
  • Dari sisi infrastruktur, OpenAI menandatangani letter of intent non-mengikat dengan Samsung dan SK Hynix untuk hingga 900 ribu wafer DRAM per bulan (sekitar 40% produksi global)
  • Melihat sinyal permintaan ini, Micron menutup merek memori konsumen Crucial yang berusia 29 tahun dan beralih ke pelanggan AI, tetapi ketika Stargate Texas dibatalkan, permintaan menghilang dan saham Micron anjlok
  • Terlepas dari skor benchmark maupun skala infrastruktur, struktur ini membuat pemain bisa tersingkir hanya karena satu kesalahan kecil dalam estimasi pendapatan

Pergeseran dari Kecerdasan ke Kapabilitas

  • Asumsi inti lab AI adalah bahwa kapabilitas model mentah (kecerdasan) dan infrastruktur untuk menjalankannya akan tetap menjadi sumber daya langka, tetapi model yang kurang kuat kini tumbuh cepat hingga setara frontier model generasi sebelumnya
  • Model open-weight Google Gemma 4 bisa dijalankan di ponsel, mencatat 85.2% di MMLU Pro, dan setara dengan Claude Sonnet 4.5 Thinking di leaderboard Arena
    • Mencapai 2 juta unduhan pada minggu pertama
    • Model yang 18 bulan lalu masih SOTA kini bisa dijalankan di laptop, dengan peningkatan performa tiap kuartal
  • Hasil menjalankan Gemma 4 langsung di AMD Ryzen AI Max+ menunjukkan performa token/detik dan tingkat kecerdasan yang sangat baik, sehingga backend alat pribadi dapat dialihkan ke model ini tanpa penurunan kualitas output
  • Anthropic menyadari arus ini dan bergerak cepat meluncurkan alat praktis seperti Claude Code, Claude Cowork, dan Claude Managed Sessions untuk mengunci pengguna ke ekosistemnya
    • Logika intinya: jika model itu sendiri tidak bisa menjadi parit, maka perusahaan harus menguasai lapisan penggunaan dan menaikkan biaya perpindahan
    • Menurut satu analisis, pelanggan paket Max ($200) mengonsumsi komputasi senilai $27,000, menunjukkan bahwa lab mempertahankan permintaan lewat subsidi
  • Karena Apple hampir tidak mengeluarkan biaya untuk infrastruktur AI dan subsidi konsumsi token pengguna, Apple punya opsi dan leverage yang lebih besar dibanding perusahaan lain

Konteks adalah Sumber Daya Utama

  • Saat kecerdasan menjadi melimpah, konteks menjadi sumber daya yang langka
    • Model yang bisa menalar apa pun tetapi tidak tahu apa-apa tentang pengguna hanyalah alat umum
    • Agar AI benar-benar berguna dalam keseharian, dibutuhkan kemampuan bernalar plus konteks pribadi (pesan, kalender, kode, data kesehatan, foto, kebiasaan, dan lain-lain)
  • Apple sudah memiliki konteks ini melalui 2,5 miliar perangkat aktif
    • Data kesehatan dari Apple Watch, foto iPhone, catatan, pesan, riwayat lokasi, perilaku aplikasi, email, dan pemahaman lingkungan lewat sensor perangkat
  • Dengan pemrosesan on-device, dimungkinkan memberi model seluruh konteks tanpa mengirim data ke luar perangkat
    • Positioning "Privacy. That's iPhone" bisa berubah dari sekadar PR menjadi proposisi nilai inti
    • Menyerahkan rekam medis dan foto 15 tahun ke OpenAI sangat berbeda secara mendasar dibanding memberi akses ke model yang hanya berjalan di dalam perangkat
  • Kesepakatan Gemini ($1B) antara Apple dan Google ditujukan untuk kueri yang membutuhkan inferensi tingkat cloud, dengan biaya yang bisa dibilang dibulatkan jika dibandingkan biaya komputasi mingguan OpenAI
    • Yang tetap dipertahankan Apple secara internal: lapisan konteks, stack on-device, dan sistem operasi yang mengoordinasikan semuanya

Mengapa Apple Silicon Cocok untuk AI

  • Seperti terlihat dari booming Mac Mini setelah rilis OpenClaw, Apple Silicon dikembangkan bukan khusus untuk AI melainkan untuk efisiensi, baterai, performa termal, dan desain hardware/software terintegrasi, tetapi ternyata menjadi arsitektur yang sangat optimal untuk menjalankan model secara lokal
  • Desain kuncinya adalah unified memory
    • Arsitektur tradisional menempatkan CPU dan GPU pada chip terpisah dengan pool memori terpisah, sehingga perpindahan data lambat dan boros daya
    • GPU Nvidia cepat untuk operasi matriks, tetapi transfer data CPU-GPU melalui bus PCIe menjadi bottleneck
    • Seri Apple M/A menempatkan CPU, GPU, dan Neural Engine pada die yang sama dan berbagi satu pool memori berbandwidth tinggi, sehingga tidak ada persilangan bus, overhead transfer, maupun latensi
  • Inferensi LLM saat ini dibatasi bukan oleh compute melainkan bandwidth memori
    • Yang penting adalah kecepatan streaming bobot model dari memori ke unit komputasi, serta kapasitas memori untuk menyimpan KV cache
    • Pool memori terpadu Apple memberi akses langsung berbandwidth tinggi ke semua unit komputasi secara bersamaan
  • Teknik LLM in a Flash bekerja sangat efektif di hardware Apple
    • Di Mac M3 Max, Qwen 397B (model 209GB) dijalankan pada ~5.7 token/detik hanya dengan RAM aktif 5.5GB
    • Bobot disimpan di SSD dan di-streaming pada ~17.5 GB/s, dan berkat arsitektur MoE (Mixture-of-Experts), setiap token hanya mengaktifkan sebagian expert layer
    • ~5.000 baris Objective-C dan shader Metal untuk menjalankan ini ditulis oleh Claude

Dinamika Platform dan Analogi App Store

  • Seperti App Store, Apple tidak membuat aplikasinya sendiri; Apple membangun platform tempat aplikasi berjalan paling baik, lalu ekosistem pun mengikuti
    • Developer menargetkan iOS bukan karena diminta Apple, tetapi karena basis pengguna, tools, dan hardware yang konsisten
  • Fenomena yang sama bisa muncul pada inferensi lokal
    • MLX sudah muncul sebagai framework standar de facto untuk AI on-device
    • Arsitektur model utama seperti Gemma, Qwen, dan Mistral mendukung MLX
    • Meski Apple tidak menang dalam persaingan model, Apple bisa menjadi platform de facto tempat model (atau agen) dijalankan
    • Demam Mac Mini setelah OpenClaw viral menjadi contoh kemungkinan tersebut

Strategi atau Keberuntungan

  • Strategi desain hardware/software terintegrasi Apple telah menjadi fokus utama selama bertahun-tahun, dan positioning privasi, fokus pada pemrosesan on-device, serta keputusan mengembangkan silikon sendiri ketika industri bergantung pada Nvidia dan Intel semuanya merupakan pilihan yang berisiko secara komersial
    • Keputusan-keputusan ini diambil bukan untuk AI, melainkan demi biaya dan tata kelola, tetapi hasilnya justru menguntungkan di era AI
  • Hal-hal yang mungkin tidak diprediksi Apple:
    • Arsitektur unified memory ternyata sangat cocok untuk LLM
    • Model open-weight berkembang secepat ini
    • Streaming model 400B parameter dari SSD ternyata benar-benar bisa bekerja
  • Sebagiannya memang keberuntungan, tetapi jenis keberuntungan yang datang kepada perusahaan yang membangun fondasi yang tepat
  • Ketika industri lain selama 3 tahun sibuk dalam persaingan model terbaik, Apple mengamati dari pinggir lapangan bagaimana perangkat dan ekosistemnya akan cocok dengan masa depan ini
  • Kekurangan seperti keterbatasan Siri memang masih ada, tetapi
    • 2,5 miliar perangkat, seluruh konteks pribadi, eksekusi model lokal di silikon khusus, dan Gemini on-call untuk kueri yang sulit
    • Struktur inferensi berbasis biaya variabel, bukan CAPEX tetap, sulit disebut sebagai posisi yang buruk di era AI yang makin universal
  • Pada akhirnya, Apple masih sangat mungkin menempati posisi penting dalam masa depan yang berpusat pada AI
    • Baik karena strategi maupun kebetulan, yang terpenting adalah Apple berdiri di atas fondasi yang tepat

5 komentar

 
j2sus91 6 hari lalu

Agak omong kosong juga
sekarang perusahaan model AI lagi bakar-bakaran duit dalam persaingan sengit
lalu dibilang Apple yang tidak melakukan apa-apa justru paling untung, kan begitu?

Itu cuma karena sekarang arus persaingan berlebihan di model LLM memang seperti itu
kalau model AI sedang ada di tahap stabilisasi/pertumbuhan, apa Meta sudah gila sampai merilis Gemma?

Selama ini, know-how dalam mengembangkan dan mengoperasikan model itulah yang akan jadi emas dan berlian

 
wang3281 6 hari lalu

Meta -> Google

Kalau lihat pengeluaran Apple, mereka ternyata tidak tinggal diam. Memang perusahaan yang cocok untuk mencapai physical AI.. Nvidia juga pada akhirnya bergerak ke ranah fisik.. Yang benar-benar luar biasa ya Google, karena punya semuanya

 
sudoeng 6 hari lalu

Mungkin maksudnya bukan itu, melainkan bahwa data personalisasi pada akhirnya akan menjadi moat penting di era AI berikutnya, dan Apple sudah memilikinya, jadi posisinya akan lebih diuntungkan.

 
kimjoin2 6 hari lalu

Semangat, Apple MLX

 
GN⁺ 6 hari lalu
Komentar Hacker News
  • Menurut saya Gemma4 bagus untuk bantuan terkait kode atau saran error, tetapi masih kurang dalam penggunaan alat yang kompleks atau pemahaman konteks tingkat ahli
    Kalau ditingkatkan beberapa kali lagi hingga kira-kira menjadi Gemma6 dan bisa berjalan sepenuhnya lokal di Mac pada level Opus saat ini, rasanya tidak akan ada alasan kuat untuk memakai model cloud

    • Saya juga merasakan hal yang mirip. Awalnya saya kecewa karena kompatibilitas Gemma4 dengan agen coding lebih buruk dibanding Qwen3.5, tetapi untuk penggunaan lain cukup lumayan
      Barusan saya melihat kabar bahwa fungsi pemanggilan alat Gemma4 telah ditingkatkan di Ollama 0.20.6. Setelah sarapan saya akan mengujinya lagi
    • Ini memberi nuansa yang mirip dengan ungkapan lama, “640k sudah cukup”
    • Pada akhirnya ekonomi adalah persaingan. Seseorang mungkin puas setelah mendapatkan kapak yang bagus, tetapi orang lain sedang mengendarai bulldozer. Kalau Anda bahagia dengan kapak, itu berarti Anda sudah keluar dari persaingan
    • Ternyata bukan cuma saya. Kualitas Gemma4 memang mengesankan, tetapi saat dipakai bersama opencode, dalam 9 dari 10 kasus ia gagal mencatat perubahan ke file dengan benar
    • Sejujurnya, saat ini model lokal belum benar-benar wajib untuk pekerjaan berperforma tinggi. Di tempat seperti OpenRouter, kita bisa memakai berbagai model terbuka, dan levelnya sudah mendekati SOTA
      Banyak penyedia melayani model yang sama dan bersaing di harga dan performa, sehingga risiko monopoli juga berkurang
      Di perangkat saya ada Gemma, jadi percakapan pribadi atau tugas non-pemrograman bisa dijalankan sepenuhnya offline
      Dalam situasi seperti ini, kalau saya OpenAI atau Anthropic, mungkin saya akan mencoba segala macam trik tidak etis untuk mengunci pelanggan, tetapi pada akhirnya itu tidak akan berhasil
  • Saya rasa valuasi OpenAI berangkat dari asumsi bahwa AI akan bekerja seperti pencarian
    Tetapi pencarian adalah struktur di mana produk membaik setiap kali pengguna memasukkan kueri, dan Google selama bertahun-tahun memang produk terbaik yang sesungguhnya
    Sebaliknya, pada AI pelatihan dan inferensi terpisah, dan setelah perpecahan internal OpenAI, para pesaing dengan cepat berhasil mengejar
    Kini ini telah menjadi perang pengurasan di mana Anda harus membakar miliaran dolar hanya untuk tetap kompetitif, dan makin kecil jarak antarmodel, makin kekuatan distribusi yang menentukan hasilnya
    Google, Meta, MSFT, dan Amazon bisa melakukannya, tetapi OpenAI tidak punya kekuatan modal yang cukup

    • Nilai OpenAI bukan sekadar pengganti pencarian, melainkan pada kemungkinan menjadi platform bagi seluruh web
      Ekspektasinya besar karena dianggap bisa mencakup otomatisasi perusahaan hingga pengganti media sosial, lalu ditambah nilai masa depan yang tidak pasti berupa kemungkinan AGI
      Peran Sam Altman adalah membesarkan ekspektasi ini untuk memaksimalkan nilai investasi
    • Pada awal 2000-an tidak ada dana atau SDM untuk menantang Google, tetapi sekarang persaingan AI sangat aktif sehingga dari sudut pandang pengguna ada keuntungan bersih berupa penghematan biaya dan perkembangan yang cepat
    • Saya juga berpikir mirip. Pada akhirnya Google akan bertahan, sedangkan OpenAI dan Anthropic kemungkinan besar akan diakuisisi oleh MSFT atau Amazon karena masalah pendanaan
      Kemitraan Apple dengan Google juga tampak sebagai bagian dari arus yang sama
    • Sayang sekali Google merusak sendiri kualitas pencariannya. Keputusan seperti menghapus operator + atau sensor politik sulit dipahami
    • Untuk pencarian nyata, sepertinya kurasi data berbasis RAG akan lebih efisien daripada membuat model baru dari nol
  • Apple selalu memakai strategi ‘menunggu lalu melompat’
    Sementara perusahaan lain melalui trial and error, Apple memahami batas teknologi lalu memimpin pasar dengan produk yang matang

    • Betul. Kali ini juga mereka menenangkan pasar dengan mengumumkan ‘Apple Intelligence’, tetapi mendekatinya dengan hati-hati tanpa investasi berlebihan
      Ada kemungkinan besar beberapa tahun lagi mereka merilis produk yang benar-benar matang
    • Mereka sudah diam-diam menunjukkan kemajuan pada fitur seperti OCR on-device serta copy/paste
    • Jika melihat contoh seperti Newton, Pippin, dan Vision Pro, pola percobaan eksperimental Apple memang berulang
    • Saya tidak yakin sejak iPhone 2007 ada produk yang benar-benar ‘melompat’. Watch mungkin yang paling mendekati, tetapi belum tentu
    • Orang tua saya di Android bisa melakukan hal seperti “menghapus orang dari foto”, sementara iPhone saya masih di level “Siri, mulai stopwatch”
      Meski begitu, saya tetap memakai iPhone karena tidak ingin menyerahkan privasi saya ke Google
  • Apple bukan perusahaan yang berfokus pada showcase chatbot untuk investor, melainkan pada perangkat keras konsumen
    Intinya adalah iPhone dan kacamata AR di masa depan, dan machine learning on-device yang dibutuhkan untuk itu adalah alasan desain chip mereka
    Tidak ada alasan bagi mereka untuk membuat produk pesaing seperti OpenAI

    • Pada FY25, sekitar 25% pendapatan Apple berasal dari layanan, 50% dari iPhone, dan sisanya dari perangkat keras. Layanan saja sudah bernilai sekitar 100 miliar dolar
    • Kacamata AR lebih dekat ke proyek riset atau cadangan strategis daripada taruhan utama
    • Orang-orang kadang memakai iPhone bukan karena mereka menginginkannya, tetapi agar tidak tersisih dari iMessage
  • Ketika perusahaan lain meninggalkan VR dan beralih ke AI, saya tidak mengerti kenapa Apple justru merilis headset VR
    Harganya mahal, pengembangnya sedikit, dan masuk ke AI juga terlambat

    • Apple memang selalu masuk terlambat, tetapi mungkin mereka sedang menciptakan kondisi untuk menurunkan harga
    • Saya melihatnya sebagai strategi checkpoint agar tidak tertinggal secara teknis. Ini adalah peletakan fondasi untuk menghindari paten dan mempertahankan merek
    • Perangkat keras butuh waktu untuk matang. Ada kemungkinan Apple sudah membuat prototipe sejak 2015~18
      Jika kacamata AR benar-benar terwujud dengan baik, itu akan menjadi platform yang sangat besar, dan sepertinya mereka menunggu timing Apple muncul setelah Meta gagal
  • Hal terbaiknya adalah semuanya berjalan secara lokal. Data tidak keluar ke luar
    Saya rasa para kreator juga akan lebih bersahabat terhadap Apple AI. Karena memakai data pelatihan yang etis dan terasa seperti dimiliki pribadi tanpa biaya langganan

    • Saya penasaran kenapa orang mengira para kreator begitu membenci AI
  • Sejak Sequoia saya mematikan Siri, dan saya suka karena Apple tidak memaksa saya untuk menyalakannya lagi
    Sebaliknya, JIRA atau Slack selalu menampilkan fitur AI baru dan itu mengganggu

    • Saya tidak suka sikap perusahaan yang mendorong fitur baru seperti kebisingan. Tetapi saya lebih tidak suka lagi kalau produk berbayar memasukkan iklan
      Bahkan Apple terasa sudah kelewatan saat menaruh iklan sponsor di posisi teratas App Store
      Di Android masih ada alternatif seperti F-Droid, tetapi di iOS sulit dihindari
    • Karena alasan ini saya menghapus Google Maps. Ringkasan buatan AI menutupi ulasan dan membuatnya tidak nyaman dipakai
      Amazon, Uber, Google Workspace, dan lainnya juga memaksakan AI dengan cara serupa
    • Yang lebih menjengkelkan adalah Apple terus memaksa pembaruan Tahoe.
      Yang saya inginkan cuma patch Sequoia biasa, tetapi Tahoe selalu jadi pilihan default
      Bahkan integrasi Claude Code di Xcode juga khusus Tahoe, yang terasa tidak masuk akal
  • Merilis MacBook Neo pada saat ini adalah strategi yang luar biasa
    Sambil mengamati persaingan AI, ini punya efek mengikat pengguna generasi berikutnya ke dalam ekosistem Apple
    Neo terasa seperti iPod generasi ini

    • Tetapi pesaing nyata Neo bukan perangkat virtual OpenAI, melainkan Chromebook dan laptop Windows
  • Nvidia membatasi agar GPU untuk gamer tidak bisa dipakai di data center,
    jadi kalau Apple mengancam pasar AI lokal, mereka mungkin akan merilis kartu AI konsumen secara terpisah
    Bisa jadi kita menuju masa depan di mana chip yang sama dijual dengan harga berbeda menurut penggunaan

    • Menurut artikel Forbes, laptop berbasis Arm dari Nvidia-Mediatek dijadwalkan diumumkan pada paruh pertama 2026
      Jika performa NPU melampaui Intel dan AMD, dan GPU setingkat RTX 5070 bisa diintegrasikan ke form factor tipis, maka struktur laptop gaming itu sendiri akan berubah
    • Pemisahan GPU profesional dan konsumen sudah ada sejak lama
    • Perusahaan lain seperti Intel juga memberi batasan serupa. Tetapi harga GPU sangat dipengaruhi oleh kapasitas memori dan bandwidth
      Versi konsumen lebih murah, tetapi memorinya lebih kecil dan lebih lambat
    • Pada akhirnya ini adalah strategi untuk sekaligus mengejar kesukaan konsumen dan maksimalisasi keuntungan
  • Apple tidak ikut terjun ke persaingan LLM. Kekuatan mereka adalah desain yang berpusat pada manusia
    iPod bukan pemutar MP3 pertama, dan iPhone juga sukses meski tidak punya 3G
    Apple telah berfokus pada efisiensi energi dan arsitektur memori terpadu, dan ini adalah desain yang memikirkan produk masa depan seperti kacamata AR
    Hal-hal yang tidak bisa dilakukan NVidia atau Intel sendirian telah dipersiapkan Apple lewat desain terintegrasi hingga chip, memori, dan SSD
    Seperti saat dulu mereka mengadopsi ARM 64-bit, sekarang pun banyak orang meremehkan arti pentingnya
    GPU NVidia memang 2~3 kali lebih tinggi dalam performa, tetapi konsumsi dayanya 10 kali lebih besar
    Apple bersaing lewat efisiensi terhadap harga, dan dioptimalkan untuk penggunaan LLM lokal yang menuntut sifat instan, personal, dan berfokus pada privasi