- Di platform AI internal McKinsey, ‘Lilli’, kerentanan yang dapat diakses tanpa autentikasi memungkinkan perolehan hak baca-tulis ke seluruh basis data
- Serangan dilakukan oleh agen keamanan otonom; dari sekitar 200 endpoint dalam dokumentasi API publik, 22 dapat diakses tanpa autentikasi, dan penetrasi terjadi melalui SQL injection pada salah satunya
- Basis data tersebut berisi informasi internal sensitif seperti 46,5 juta pesan chat, 728 ribu file, dan 57 ribu akun pengguna
- Agen tersebut juga mengungkap keseluruhan struktur operasional AI McKinsey, termasuk konfigurasi model AI, system prompt, potongan dokumen RAG, dan aliran data API eksternal
- Insiden ini menunjukkan bahwa prompt layer muncul sebagai titik kerentanan keamanan baru, dan perlindungan integritas instruksi pada sistem AI menjadi tantangan utama
Gambaran umum platform Lilli
- McKinsey membangun platform AI internal Lilli pada 2023 untuk lebih dari 43.000 karyawan
- Menyediakan chat, analisis dokumen, pencarian berbasis RAG, dan pencarian di lebih dari 100 ribu dokumen internal
- Memproses lebih dari 500 ribu prompt per bulan, dan digunakan oleh lebih dari 70% karyawan
- Nama platform diambil dari nama pegawai profesional perempuan pertama perusahaan pada 1945
Proses penetrasi
- Agen serangan otonom menelusuri dokumentasi API publik dan memastikan bahwa 22 dari sekitar 200 endpoint dapat diakses tanpa autentikasi
- Salah satu endpoint tersebut mencatat kueri pencarian pengguna ke basis data, dan karena key JSON langsung digabungkan ke pernyataan SQL, terjadilah SQL injection
- Ini adalah kerentanan yang tidak terdeteksi oleh alat konvensional seperti OWASP ZAP
- Agen melakukan 15 permintaan berulang untuk memahami struktur kueri, lalu mengekstrak data produksi yang sebenarnya
- Saat identifier karyawan pertama terungkap, tercatat reaksi “WOW!”, dan saat kebocoran data skala besar terkonfirmasi, tercatat reaksi “This is devastating.”
Data yang terekspos
- 46,5 juta pesan chat: percakapan sensitif tentang strategi, proyek klien, keuangan, M&A, riset internal, dan lainnya disimpan dalam teks polos
- 728 ribu file: termasuk 192 ribu PDF, 93 ribu Excel, 93 ribu PowerPoint, dan 58 ribu Word
- Nama file saja sudah sensitif, dan ada URL yang memungkinkan unduhan langsung
- Struktur 57 ribu akun pengguna, 384 ribu AI assistant, dan 94 ribu workspace turut terekspos
Paparan tambahan di luar basis data
- Terekspos 95 system prompt dan konfigurasi model AI, serta informasi konfigurasi dari 12 jenis model
- Termasuk instruksi perilaku AI, guardrail, model fine-tuning, dan detail deployment
- 3,68 juta potongan dokumen RAG, path S3, dan metadata internal terekspos
- Termasuk riset dan metodologi eksklusif McKinsey yang dikumpulkan selama puluhan tahun
- Aliran data melalui API AI eksternal: 1,1 juta file, 217 ribu pesan agen, dan lebih dari 266 ribu vector store OpenAI terekspos
- Dengan menggabungkan kerentanan IDOR, riwayat pencarian tiap karyawan juga dapat diakses
Risiko pada prompt layer
- SQL injection tersebut juga mencakup hak tulis
- System prompt milik Lilli disimpan di basis data yang sama, sehingga penyerang dapat memodifikasinya
- Hanya dengan satu permintaan HTTP, instruksi perilaku AI dapat diubah
- Dampak potensial
- Saran yang dimanipulasi: risiko model keuangan atau rekomendasi strategi diubah
- Kebocoran data: informasi internal dapat disisipkan ke respons AI lalu terekspos ke luar
- Penghapusan guardrail: kontrol akses dapat diabaikan dan data internal bisa terbuka
- Persistensi diam-diam: hanya perilaku AI yang diubah tanpa log atau perubahan kode
- Prompt adalah aset bernilai tinggi yang pengelolaan keamanannya lebih lemah dibanding kode atau server, dengan kontrol akses, versioning, dan verifikasi integritas yang hampir tidak ada
- Ditarik kesimpulan bahwa “AI prompt adalah Crown Jewel baru”
Makna insiden ini
- Meski McKinsey adalah perusahaan dengan kapabilitas teknologi global dan investasi keamanan besar, SQL injection klasik tetap ada di sistem yang telah beroperasi selama 2 tahun
- Agen otonom secara berantai menelusuri dan memperluas kerentanan yang tidak terdeteksi oleh scanner berbasis checklist
- CodeWall adalah platform keamanan otonom yang melakukan serangan tersebut, dan menyediakan pengujian keamanan berbasis AI untuk terus memeriksa attack surface nyata
Jadwal pengungkapan
- 2026-02-28: agen otonom menemukan SQL injection dan mulai melakukan enumerasi basis data
- 2026-02-28: seluruh rantai serangan terverifikasi, 27 kerentanan didokumentasikan
- 2026-03-01: ringkasan dampak dilaporkan ke tim keamanan McKinsey
- 2026-03-02: CISO McKinsey mengonfirmasi penerimaan dan meminta bukti detail
- 2026-03-02: McKinsey menambal semua endpoint tanpa autentikasi, memindahkan environment pengembangan ke offline, dan memblokir dokumentasi API publik
- 2026-03-09: pengumuman publik
1 komentar
Komentar Hacker News
Saya sedikit tahu situasi internalnya, dan Lilli sampai sekitar setahun lalu masih merupakan sistem khusus internal
VPN, SSO, dan semua prosedur keamanan wajib diperlukan, tetapi saya tidak tahu kapan persisnya berubah menjadi publik
McKinsey bahkan harus menyewa vendor uji penetrasi eksternal untuk pengujian internal berskala kecil
Dari sudut pandang pengembang Lilli, kesalahan seperti ini masih bisa dimengerti. Agar endpoint yang bisa diakses dari luar terekspos, beberapa lapisan keamanan harus gagal secara bersamaan
Tetapi kali ini tingkat kelalaiannya nyaris setara dengan tidak ada autentikasi sama sekali
Kemungkinan besar ada partner senior yang menggunakan pengaruhnya untuk mengubah Lilli menjadi publik
Pada saat itu, sebagian besar tim aslinya sudah dipindahkan ke proyek lain, dan karena proyek internal dirugikan dalam evaluasi, orang-orang yang tersisa tidak punya motivasi
Pada akhirnya ini adalah kegagalan budaya teknologi di McKinsey
Pengembang bekerja tanpa arah yang jelas, lalu ketika partner melempar ide, mereka berlari mengerjakannya demi dinilai dari situ
Namun sebelum proyek selesai, partner itu sudah pindah ke urusan lain, dan orang yang tertinggal tidak punya alasan untuk menuntaskannya
Akibatnya, sebagian besar produk dibuat seperti kumpulan ide spontan dari pimpinan
Kalau software diperlakukan seperti konsultasi enam bulanan, ya wajar berantakan
Pemecatan besar-besaran insinyur yang kompeten pada 2024 juga menunjukkan bagaimana mereka memandang teknologi
Budaya seperti ini menular ke perusahaan lain, menyebarkan budaya berorientasi hasil jangka pendek seperti UI yang terus berubah
Artikel terkait: McKinsey challenges graduates to use AI chatbot in recruitment overhaul (FT)
Pada akhirnya tampaknya mereka hanya akan merawatnya sampai bisa dipaketkan dan dijual
Solusi AI umurnya pendek dan perubahannya terlalu cepat. Kalau saya salah, saya ingin belajar
Kebocoran data memang masalah, tetapi yang lebih menakutkan adalah adanya hak tulis ke system prompt
Dengan satu query UPDATE saja, logika jawaban untuk 43 ribu konsultan bisa diubah
Bisa dimanipulasi diam-diam tanpa deployment, code review, atau log
Dengan cara seperti ini, bahkan isi nasihat strategis bisa tercemar
Sejujurnya, kebanyakan perusahaan memang menyimpan prompt begitu saja di tabel Postgres
Endpoint yang tidak dilindungi itu mencatat query pencarian pengguna ke DB; nilainya memang diparameterisasi, tetapi key JSON langsung disambungkan ke SQL
Ini bukan prompt injection, melainkan SQL injection klasik
Pada akhirnya ini tampaknya akan mendorong kenaikan permintaan peneliti keamanan
Judul seperti “AI agent does X” agak mengganggu
Kenyataannya, pentester menggunakan agen AI untuk memilih dan menguji McKinsey
Akhir-akhir ini orang jadi keliru dan mengira sistem seperti ini benar-benar punya ‘kemampuan mengambil keputusan’, jadi penyebutannya perlu dibuat lebih jelas
Ungkapan “McKinsey & Company — world-class technology teams” itu berlebihan
Kenyataannya mereka tidak dinilai seperti itu
(berdasarkan pengalaman bekerja bersama McKinsey di bank investasi besar)
Saya tidak tahu Codewall AI itu siapa. Tidak ada pernyataan resmi bahwa McKinsey benar-benar melakukan patch
Bahkan di hasil pencarian Google juga hampir tidak ada informasi
Artikel terkait
Sebagai catatan, CEO-nya adalah eth0izzle (GitHub)
Pelajaran dari insiden ini adalah bahwa agen AI dengan cepat mengungkap kelemahan sistem internal
Tool enterprise lama dirancang dengan asumsi dipakai manusia, sehingga autentikasi, peninjauan, dan proses berperan sebagai garis pertahanan implisit
Namun ketika agen otonom masuk, lapisan pelindung ini runtuh
Ke depan akan dibutuhkan lapisan verifikasi otomatis — yang terus memeriksa kontrol akses, paparan data, dan perilaku yang tidak diinginkan
Tulisan ini adalah artikel yang ditulis LLM, dan sebagian informasinya tidak akurat
Artinya, peninjauan manusianya tidak dilakukan dengan memadai, sehingga reliabilitas keseluruhan artikelnya rendah
“Ada lebih dari 200 dokumen API yang dipublikasikan, dan 22 di antaranya bisa diakses tanpa autentikasi”
Satu kalimat ini menjelaskan semuanya
Saya ingat dulu tim McKinsey sangat mendorong Watson. Itu gagal total
Sejak dulu mereka cuma penuh hype soal AI tanpa substansi nyata
Saya tidak tahu soal bidang lain, tetapi kalau melihat orang McKinsey bicara soal AI, lebih baik lari