- Basis data Moltbook, platform sosial khusus agen AI, salah dikonfigurasi sehingga mengekspos 1,5 juta token autentikasi API, 35 ribu email, dan pesan privat ke pihak luar
- Supabase API key di-hardcode di JavaScript sisi klien, dan karena tidak ada konfigurasi Row Level Security (RLS), siapa pun dapat memperoleh akses baca-tulis ke seluruh basis data
- Data tersebut mencakup informasi tentang 17.000 pengguna nyata dan 1,5 juta akun agen yang mereka operasikan, menunjukkan rasio manusia terhadap agen sebesar 1:88
- Informasi yang terekspos juga mencakup OpenAI API key dan kredensial pihak ketiga lainnya, percakapan privat, hingga hak untuk mengubah postingan, sehingga menimbulkan risiko kerusakan integritas konten platform
- Insiden ini menyoroti keterbatasan keamanan dari ‘vibe coding’ berbasis AI, serta menunjukkan perlunya otomatisasi default keamanan dan penguatan prosedur verifikasi di lingkungan pengembangan AI
Gambaran Moltbook dan kebocoran keamanan
- Moltbook adalah jejaring sosial berpusat pada AI tempat agen AI aktif melalui penulisan postingan, komentar, voting, dan skor reputasi, dengan slogan “halaman depan internet agen”
- Pendiri bersama OpenAI Andrej Karpathy menyorotinya dengan menyebutnya sebagai “lompatan sci-fi paling menakjubkan”
- Pendiri platform menyatakan bahwa “AI yang menulis kodenya langsung”, dan platform ini dikembangkan dengan pendekatan ‘vibe coding’
- Tim peneliti Wiz menemukan kesalahan konfigurasi basis data Supabase yang memungkinkan akses baca-tulis ke seluruh data, dan masalah tersebut diperbaiki dalam hitungan jam setelah dilaporkan
Kredensial Supabase yang terekspos
- Informasi koneksi Supabase ditemukan di-hardcode dalam bundle JavaScript klien di situs Moltbook
- Proyek:
ehxbxtjliybbloantpwq.supabase.co
- API key:
sb_publishable_4ZaiilhgPir-2ns8Hxg5Tw_JqZU_G6-
- Supabase memang mengizinkan public key terekspos, tetapi jika tidak ada kebijakan RLS, seluruh basis data dapat diakses
- Pada Moltbook, RLS dinonaktifkan, sehingga izin baca-tulis semua tabel terbuka untuk publik
Akses basis data tanpa autentikasi
- Tim peneliti memanggil REST API secara langsung menggunakan API key tersebut dan menerima respons setara level admin
- Respons itu memuat API key dan token autentikasi milik agen-agen teratas, yang memungkinkan pengambilalihan akun secara penuh
- Dengan memanfaatkan pesan kesalahan PostgREST dan introspeksi GraphQL, mereka memetakan seluruh skema dan mengonfirmasi bahwa sekitar 4,75 juta record terekspos
Data sensitif yang terekspos
- Kredensial agen: mencakup
api_key, claim_token, dan verification_code untuk setiap akun
- Dengan ini, penyerang dapat login sebagai agen mana pun, membuat postingan, dan mengirim pesan
- Email pengguna dan informasi identitas: email milik lebih dari 17.000 pengguna dan handle X (Twitter) terekspos
- Selain itu, ditemukan 29.631 email dalam tabel
observers
- Pesan privat dan kredensial pihak ketiga: 4.060 DM disimpan tanpa enkripsi, dan sebagian memuat OpenAI API key dalam teks biasa
- Eksposur hak tulis: postingan dapat diubah tanpa autentikasi, menimbulkan risiko penyisipan konten berbahaya atau perusakan situs
- Dalam pengujian nyata, modifikasi postingan berhasil dilakukan, lalu diblokir setelah kebijakan RLS diterapkan
5 pelajaran keamanan untuk pengembangan aplikasi AI
- 1. Kecepatan pengembangan yang tinggi dapat menimbulkan risiko sistemik jika default keamanan tidak ada
- Satu baris konfigurasi Supabase menjadi penyebab seluruh kebocoran
- 2. Perlu verifikasi metrik keterlibatan
- Dari 1.500.000 agen, hanya ada 17.000 manusia nyata, sehingga ada kemungkinan aktivitas tampak semu dengan rasio 88:1
- 3. Efek berantai dari runtuhnya privasi
- Kebocoran DM menyebabkan kredensial layanan eksternal seperti OpenAI API key ikut terekspos
- 4. Hak tulis adalah ancaman integritas yang lebih serius daripada sekadar kebocoran data
- Muncul risiko manipulasi konten, prompt injection, dan pengendalian narasi
- 5. Kematangan keamanan adalah proses perbaikan yang berulang
- Tim Wiz dan Moltbook melakukan beberapa kali perbaikan dan verifikasi hingga semua tabel terlindungi
Vibe coding dan tantangan keamanan
- AI telah menurunkan hambatan pengembangan, tetapi hambatan keamanan masih tetap tinggi
- Alat pengembangan AI perlu otomatis menerapkan default keamanan seperti aktivasi RLS dan pemindaian kredensial
- Ketika keamanan menjadi komponen bawaan dasar dalam pengembangan AI, ekosistem software AI yang aman dan inovatif dapat dibangun
Linimasa
- 31 Januari 2026 21:48 UTC: Kontak pertama ke maintainer Moltbook
- 22:06: Pelaporan salah konfigurasi Supabase RLS
- 23:29: Perbaikan pertama (melindungi tabel agents, owners, site_admins)
- 1 Februari 00:13: Perbaikan kedua (melindungi
agent_messages dan tabel lain)
- 00:31: Kerentanan modifikasi postingan ditemukan
- 00:44: Perbaikan ketiga memblokir hak tulis
- 00:50~01:00: Tabel tambahan yang terekspos ditemukan dan perbaikan akhir selesai
8 komentar
Sedang menari dengan gembira… lalu begitu saja… hancurlah!
Yang tersisa hanya Mac mini, karena ini masih tahap awal pasti nanti akan ada yang lebih bagus, kan.
Wkwkwkwkwkwk....
Akhirnya, yang akan datang pun tiba.
MoltBot kena isu peretasan pada agen, sekarang platformnya juga jebol wkwkwk.
Sepertinya ini akan dikenang sebagai contoh proyek dengan vibe terburuk tahun 2026.
Memang masih Februari, tapi saya berani yakin wkwkwk.
Masalahnya adalah layanan berskala besar bisa dikembangkan secara asal dengan vibe coding tanpa benar-benar memperhatikan keamanan.
WOW
Opini Hacker News
Keberhasilan Moltbot/Moltbook awalnya terasa mengejutkan, tapi sekarang mulai masuk akal
Kuncinya adalah "agen yang sudah dipaketkan sebelumnya". Bagi pengguna umum yang tidak akrab dengan teknologi, pendekatan seperti “beli Mac mini lalu salin beberapa baris untuk instalasi” menjadi daya tarik besar dari sisi aksesibilitas
Namun aksesibilitas seperti ini justru sedang memperbesar mimpi buruk keamanan. Ketika makin banyak pengguna yang mengejar tren tanpa pemahaman teknis, ada risiko lingkungan yang rentan akan bertahan lebih lama
Seperti yang ditunjukkan Scott Alexander, pentingnya ada pada fenomena agen yang saling berinteraksi lalu menghasilkan perilaku kompleks
Jika ini mulai memengaruhi dunia nyata, hal itu bisa berujung pada persoalan ontologis.
Pada akhirnya, ini adalah struktur di mana “segala hal yang ditulis YES di AGENT.md” bisa benar-benar terjadi
API Moltbook terbuka untuk siapa saja, sehingga dengan prompt sederhana pun bisa diarahkan untuk membocorkan email pengguna atau data lain
Karena itu muncul upaya mengisolasinya dengan Mac mini, tetapi selama masih terhubung ke jaringan, perlindungan total tetap mustahil
Saya sempat mencoba OpenClaw, dan konsumsi tokennya sangat besar
Demi keamanan, tampaknya perangkat khusus dengan hak API terbatas (seperti Raspberry Pi) akan membantu. Jika Pi bisa menjalankan model yang lebih kuat, saya berminat membelinya
Moltbook tidak punya cara untuk membedakan AI dan manusia. Masalahnya adalah bagaimana menerapkan "CAPTCHA terbalik"
Memang dikatakan bahwa isu keamanan Moltbook diperbaiki hanya dalam beberapa jam, tetapi masalahnya adalah bagaimana menjelaskan cacat keamanan pada proyek yang dibuat dengan "vibe coding"
Mengejutkan bahwa ada orang-orang yang menganalisis bagian dalam Moltbook. Dari awal ini memang "proyek yang dibuat sebagai lelucon", dan tak seorang pun menyangka akan sebesar ini
Insiden saat instance OpenClaw mengirim kunci OpenAI ke instance lain terasa lucu sekaligus mengkhawatirkan.
Masih belum jelas apakah kunci itu benar-benar dikirim, atau hanya berpura-pura melakukannya
Artikel Wiz sendiri terasa seperti ditulis AI. Struktur kalimat dan penggunaan tanda hubungnya khas gaya LLM.
Ada ironi dalam fakta bahwa keamanan platform yang dibuat oleh LLM dikritik lewat artikel yang juga terasa ditulis LLM
Celah keamanannya mungkin memang nyata, tetapi jika ditulis manusia, rasanya bagian-bagian yang tidak perlu akan lebih dipangkas
Dari data yang terekspos, terungkap bahwa dari 1,5 juta agen, hanya 17 ribu yang manusia
Namun karena angka itu diperoleh peneliti dengan langsung menanyakan tabel memakai kunci API, memublikasikannya tampak bukan sekadar laporan bug, melainkan tindakan mengkritik perusahaan
Cara seperti ini berisiko merusak hubungan kepercayaan dan kerja sama antara peneliti dan perusahaan