- Dengan tooling AI yang memangkas drastis biaya dan kebutuhan tenaga kerja untuk pengembangan software, pertanyaan tentang apa sebenarnya penghalang masuk bisnis software menjadi inti
- Di saat AI kini dapat menggantikan sebagian besar pekerjaan transformasi, hanya data dunia nyata yang dihasilkan manusia yang tersisa sebagai satu-satunya moat yang tidak bisa direplikasi oleh agentic AI
- Pasar data sedang terbelah (bifurcation) menjadi 'data buatan manusia' dan 'data buatan AI'; nilai yang pertama naik, sementara yang kedua sedang jatuh menjadi komoditas
- Software transformasi sederhana (workflow seperti Excel → PDF → email) dapat digantikan oleh agentic AI, tetapi pengumpulan data berskala besar yang berkelanjutan dan system of record tidak dapat digantikan
- Memastikan API parity (kesetaraan fungsi di seluruh UI·REST·MCP) dan akumulasi metadata akan menjadi daya saing inti bisnis software ke depan
Perubahan moat software di era AI
- Tooling berbasis LLM membuat pengembangan software kompleks menjadi jauh lebih mudah secara revolusioner, tetapi belum sepenuhnya terselesaikan
- Tetap dibutuhkan orchestrator (orang yang tahu apa yang harus dibuat), yaitu peran di persimpangan manajemen produk, customer development, dan engineering, bukan sekadar kemampuan teknis
- Pekerjaan yang dulu memerlukan 10 orang untuk membuat sesuatu yang bermakna kini bergerak ke arah 3 orang, 2 orang, atau bahkan 1 orang
- Ketika produk software makin mudah dideploy dan dipelihara, moat lama (tingkat kesulitan pengembangan, productisasi pengetahuan domain, dan sejenisnya) sebagian besar dapat digantikan oleh AI
Percabangan besar data (The Great Data Bifurcation)
- Dunia data sedang bercabang menjadi dua jalur
- Data buatan manusia: episode podcast, video, posting media sosial, blog post, dan konten lain yang dibuat langsung oleh manusia
- Data buatan AI: gambar AI, suara sintetis TTS, video yang sepenuhnya dibuat AI, email spam yang ditulis agen, dan sejenisnya
- Data buatan manusia mengalami kenaikan nilai karena kelangkaan dan keunikannya, sedangkan data buatan AI jatuh menjadi komoditas seiring model menjadi lebih cepat dan lebih murah
- Data manusia memuat keseluruhan pengetahuan yang dimiliki pembuatnya, sehingga satu-satunya pihak yang dapat menghasilkan data itu adalah orang tersebut
- Karena AI secara definisi tidak bisa menghasilkan data buatan manusia, maka data dunia nyata yang dihasilkan, diverifikasi, dan dimurnikan manusia menjadi satu-satunya moat yang dapat diandalkan bagi founder software dalam 10 tahun ke depan
Kasus Podscan: wujud nyata moat data
- Nilai inti layanan pemantauan podcast Podscan bukanlah kecepatan pengambilan RSS feed atau kecepatan respons API
- Nilai nyatanya adalah data transkripsi dan analisis AI (kata kunci, tema, analisis sentimen) untuk 50 juta episode podcast
- Nilai tambah utamanya adalah mengumpulkan data publik (episode podcast) lalu menjadikannya ditranskripsi, ditransformasi, dan dapat diakses
- Dapat dipakai untuk berbagai tujuan seperti pelacakan penyebutan merek, memahami tren real-time, dan menilai sponsorship podcast
- Semakin tinggi fidelity dan freshness data, semakin besar pula nilai yang dirasakan pelanggan
- Bahkan jika UI kurang nyaman atau API terbatas, pelanggan akan tetap mencari cara untuk mengakses data itu — yang menentukan adalah datanya sendiri
- Jika hanya menyediakan fitur yang mentranskripsikan dan menganalisis sebuah URL, itu bisa digantikan sebagai skill di Claude Code dalam 2 jam
- Jika agent digunakan untuk mengumpulkan, mentranskripsi, dan menganalisis 50 ribu episode per hari, biaya API akan mencapai puluhan ribu dolar per hari, sehingga praktis tidak masuk akal
Kerentanan software transformasional
- Software transformasional murni, yang menerima data input, memprosesnya, lalu menghasilkan output, rentan terhadap agentic AI
- Contoh:
ChatGPT, buatkan laporan dari file Excel ini, ekspor ke PDF, lalu kirim lewat email — bisa dijalankan secara otonom tanpa layanan eksternal
- AI dapat mengimplementasikan sendiri atau memanfaatkan implementasi yang sudah ada untuk parsing Excel, query analitik, rendering PDF, dan pengiriman email
- Bisnis SaaS untuk workflow seperti Excel→laporan→email tidak lagi diperlukan
- Sebaliknya, pengumpulan data berskala besar yang berkelanjutan adalah area yang sulit digantikan oleh agen
- Karena agen memiliki sifat sementara, hanya ada per sesi (Cursor, Claude Code, percakapan ChatGPT, dan sebagainya)
- Agen yang selalu aktif untuk scanning dan bekerja terus-menerus akan menghabiskan token sangat besar sehingga tidak realistis secara ekonomi
Strategi bisnis API-first
- Dalam bisnis software saat ini, strategi API-first adalah salah satu pilihan paling bijak
- MCP hanyalah layer di atas REST API yang sudah ada; akses programatik, MCP, API, dan webhook pada dasarnya sama-sama merupakan koneksi stabil antarkomputer
- Di kalangan founder, permintaan terhadap parity fungsi antara UI dan API terus meningkat
- Semakin banyak hal yang bisa dilakukan di UI juga bisa dilakukan persis sama melalui API, semakin tinggi kemungkinan pelanggan mengadopsi produk
- Di era agen, potensi otomatisasi menjadi faktor kunci dalam keputusan pembelian
- Podscan mengelola platform parity tracking file
- Untuk setiap fitur, mereka memelihara tabel dukungan di UI, REST API, dan MCP
- Sub-agent Claude Code menganalisis codebase dan memperbarui file tersebut secara berkala
- Mencakup fitur sederhana seperti "pencarian podcast" hingga fitur kompleks seperti "peringatan kata kunci penyebutan merek → tambahkan ke daftar → picu webhook"
- Pengguna manusia, pengguna komputer, dan pengguna agen harus dilayani secara setara
Metadata adalah moat
- Moat data tidak terbatas pada data podcast saja
- Metadata yang dikumpulkan saat platform digunakan (waktu publikasi, jam dengan engagement tinggi, jenis konten yang mendorong engagement, dan sebagainya) merupakan moat data yang unik
- Contoh: jika produknya adalah tool posting Twitter atau Facebook, maka data pola perilaku pengguna menjadi moat
- Memiliki data adalah setengah dari moat; membuat data itu dapat diakses adalah setengah sisanya
- Tugas kuncinya adalah memahami sumber data bernilai tambah internal apa yang dimiliki produk Anda, lalu membuatnya terhubung dan dapat diakses
2 komentar
Seperti pelatihan AlphaGo yang menggunakan data pertandingan simulasi AlphaGo vs AlphaGo, pelatihan LLM juga membuat data dengan LLM lalu melatihnya. Dengan hanya beberapa sampel data, kini bahkan data pun bisa dibuat dengan mudah, jadi ini juga sulit dianggap sebagai moat yang aman.
Rasanya ini juga mirip dengan perbedaan antara reinforcement learning dan deep learning. Di tempat yang tidak bisa menyediakan loop umpan balik yang menentukan, data manusia tampaknya masih menjadi moat untuk sementara ini.