1 poin oleh GN⁺ 4 hari lalu | 1 komentar | Bagikan ke WhatsApp
  • Cal.com beralih menjadikan kode intinya tertutup dengan alasan ancaman deteksi kerentanan berbasis AI, dan menyebut bahwa kita kini hidup di era “transparansi berarti eksposur”
  • Strix adalah proyek open source yang mengembangkan agen keamanan AI otonom, dan bekerja sama dengan Cal.com untuk menjalankan prosedur pengungkapan kerentanan yang bertanggung jawab
  • Strix menegaskan bahwa menutup kode bukan solusi untuk ancaman keamanan AI, dan justru menutup peluang peninjauan oleh pihak yang berniat baik
  • Serangan AI dapat menembus secara black-box bahkan tanpa akses ke kode, sehingga strategi kode tertutup tetap rentan terhadap serangan otomatis
  • Solusi yang sesungguhnya adalah mengintegrasikan pertahanan AI ke dalam proses pengembangan dan mempertahankan transparansi serta kolaborasi open source melalui validasi otomatis berkelanjutan

Peralihan Cal.com ke kode tertutup dan perdebatan keamanan open source

  • Cal.com mengumumkan akan mengubah codebase intinya dari open source menjadi tertutup
    • CEO Bailey Pumfleet mengatakan bahwa AI kini dapat secara otomatis menemukan kerentanan dalam skala besar, sehingga kita memasuki era “transparansi berarti eksposur”
    • Ia juga menyebut bahwa AI kini mampu melakukan pemindaian kode dan eksploitasi dengan biaya yang nyaris “nol”
  • Strix adalah proyek open source yang mengembangkan agen keamanan AI otonom, dan baru-baru ini melampaui 24k GitHub stars
    • Strix memproses lebih dari 15 miliar token LLM per hari untuk mendeteksi kerentanan perangkat lunak
    • Strix bekerja sama dengan Cal.com untuk menjalankan prosedur pengungkapan kerentanan yang bertanggung jawab menggunakan Strix, dan tidak mengungkap detail bug yang belum ditambal
    • Strix mengakui bahwa keputusan Cal.com lahir dari niat untuk melindungi pengguna
  • Namun, Strix menegaskan bahwa “menutup kode bukanlah solusi untuk ancaman keamanan berbasis AI”
    • Mereka setuju bahwa AI telah mengubah keamanan secara mendasar, tetapi menolak meninggalkan open source

AI black-box juga bisa menembus kode tertutup

  • Asumsi bahwa penyerang tidak akan bisa membaca kode jika source code ditutup tidak lagi berlaku dalam model serangan AI modern
    • Ini mungkin efektif untuk alat analisis statis di masa lalu, tetapi agen AI otonom dapat menyerang bahkan tanpa akses ke kode
  • Alat seperti Strix dioptimalkan untuk pengujian black-box dan gray-box
    • Dengan berinteraksi langsung dengan endpoint nyata, alat tersebut dapat melakukan manipulasi status browser, analisis traffic jaringan, dan deteksi kerentanan business logic
  • Menutup kode hanya menghalangi kesempatan peninjauan dari para pengembang yang berniat baik, sementara permukaan serangan seperti API dan webhook yang terekspos tetap ada

Strategi ‘security through obscurity’ rentan terhadap serangan otomatis

  • Kode tertutup bergantung pada tim keamanan internal dan pengujian penetrasi manual berkala
    • Namun penyerang menggunakan bot AI yang dapat berjalan tanpa henti untuk mencari kerentanan 24 jam sehari
  • Ini didasarkan pada asumsi bahwa personel internal dapat menemukan celah lebih cepat daripada serangan AI eksternal, padahal secara realistis hal itu mustahil
  • Di masa lalu, security through obscurity juga sudah berulang kali gagal, dan di era AI, kegagalan itu akan terjadi dengan kecepatan yang meningkat secara eksponensial

Solusi sebenarnya: melawan AI dengan AI

  • Memang benar bahwa kecepatan pengembangan perangkat lunak telah melampaui kecepatan tinjauan keamanan oleh manusia
    • Namun solusinya bukan menyembunyikan kode, melainkan mengintegrasikan pertahanan AI ke dalam proses pengembangan
  • Diperlukan validasi berkelanjutan berbasis AI (continuous validation)
    • Saat developer membuka Pull Request, AI langsung mencoba melakukan serangan
    • Saat ada perubahan infrastruktur, AI secara otomatis memverifikasi permukaan serangan
  • Pengujian keamanan harus diotomatisasi di dalam pipeline CI/CD, dan harus dihadapi dengan otomatisasi internal yang lebih baik daripada otomatisasi serangan

Open source masih tetap relevan

  • Prinsip tradisional bahwa “banyak mata membuat bug menjadi dangkal” mungkin melemah, tetapi open source sendiri tidak mati
  • Strix tetap mempertahankan open source dengan keyakinan bahwa transparansi menciptakan kekuatan
    • Alat keamanan generasi berikutnya harus sama mudah diakses dan terbuka seperti alat serangan
  • Menyembunyikan kode tidak akan menghentikan AI hacker, tetapi memberi developer agen keamanan otonom dapat meningkatkan peluang pertahanan
  • Strix menyediakan kesempatan untuk mencoba pengujian keamanan berkelanjutan berbasis AI secara gratis

1 komentar

 
GN⁺ 4 hari lalu
Pendapat Hacker News
  • Saya mengelola proyek open source, dan dalam beberapa bulan terakhir laporan kerentanan keamanan melonjak drastis
    Sebagian besar hanyalah kasus sepele, tetapi ada juga masalah yang nyata, dan semuanya sudah saya perbaiki
    Perangkat lunak tertutup mungkin tidak menerima laporan seperti ini, tetapi ada risiko disalahgunakan oleh AI
    Jadi saya sepenuhnya setuju dengan pesan tulisan ini

    • Meski tertutup, bukankah mereka tetap bisa menjalankan pemindai AI secara internal?
      Hanya tertutup dari luar, bukan dari pengembang internal
    • Mungkin tidak akan ada laporan dari pemindai repo otomatis, tetapi program bug bounty tetap menghasilkan banyak laporan
      Hanya saja dengan munculnya alat AI, kini ada masalah pemula yang mengirim laporan halusinasi buatan AI
      Perusahaan tertutup juga harus secara sukarela melakukan audit keamanan
    • Dari sudut pandang penyerang, jauh lebih menguntungkan memakai AI untuk menyerang repositori open source
      Saya paham kenapa Cal.com beralih ke model tertutup, tetapi pada akhirnya ini terlihat seperti pemasaran Strix
      Perusahaan open source makin dirugikan semakin lama mereka tetap terbuka
    • Saya juga sudah menyiapkan pengujian penetrasi otomatis setiap malam untuk proyek open source saya
      Jika laporan seperti ini dipublikasikan secara berkala, itu bisa membuktikan tingkat kepercayaan keamanan
      Hanya saja proyek yang sudah berjalan tampaknya menumpuk isu tingkat sedang dan ringan, jadi butuh waktu untuk membereskannya
    • Perusahaan kami secara internal menggabungkan pemindai AI dan pengujian penetrasi manual
      Artinya, sambil menjaga kode tetap privat, kami sekaligus memanfaatkan deteksi kerentanan AI dan pertahanan berlapis
  • Alasan CEO yang mengatakan “AI secara otomatis mendeteksi kerentanan dalam skala besar” terdengar seperti dalih
    Alasan sebenarnya mungkin karena sulit membangun model bisnis yang berkelanjutan dengan open source

    • Setuju. Saya paham kalau beralih ke model tertutup demi profitabilitas, tetapi memakai alasan keamanan itu tidak jujur
    • Selama 5 tahun kami mempertahankan tingkat pertumbuhan 300% dengan open source sambil tetap menghasilkan keuntungan
      Beralih ke model tertutup justru merugikan bisnis kami, tetapi kami memutuskan perlindungan data pelanggan lebih penting
    • Sekarang ada kecenderungan menyalahkan AI untuk segala hal
      Entah pengurangan tenaga kerja atau perubahan lisensi, alasan “karena AI” terasa sebagai dalih yang nyaman
    • Sekarang terlalu mudah untuk tidak memakai kode open source secara langsung, melainkan hanya mengekstrak bagian yang dibutuhkan lalu menyusunnya ulang
      Tempat seperti npmjs mungkin sebentar lagi berubah menjadi situs referensi
    • Menyisakan ‘cal.diy’ dan menutup versi enterprise adalah strategi open-core yang sangat khas
      Menyalahkan pemindai AI hanyalah bungkus PR belaka
  • Tulisan ini benar-benar terasa seperti buku teks content marketing

    1. Menarik perhatian dengan judul provokatif
    2. Mendapatkan simpati pembaca dengan memahami posisi Cal.com
    3. Menawarkan solusi yang terdengar serius untuk masalah tersebut
    4. Lalu secara alami berujung pada promosi produk mereka sendiri
      Ini contoh perpaduan yang sangat rapi antara ketulusan dan pemasaran
    • Saya juga membacanya begitu. Perusahaan yang menulisnya memang menjual layanan pemindaian kerentanan AI, jadi pada akhirnya ini untuk mendorong pendaftaran
      Faktanya Strix memang memindai kode Cal.com, tetapi melewatkan banyak kerentanan
      Tidak ada platform yang sempurna, dan pemindai AI saja tidak cukup
    • Sayang sekali tulisan ini mendapat begitu banyak upvote. Kepadatan isinya cuma setara satu komentar
    • Secara pribadi saya tidak memakai AI. Untuk saat ini, ikut menaiki gelombang hype AI memang mudah dari sisi pemasaran, tetapi saya ragu itu benar-benar punya nilai nyata
  • Security through obscurity” hanya jadi masalah jika dipakai sendirian
    Sebagai lapisan penghambat yang menaikkan biaya bagi penyerang, itu tetap strategi yang efektif
    Pada akhirnya keamanan adalah pertarungan tentang siapa yang mengerahkan lebih banyak sumber daya
    AI hanya lebih efisien daripada manusia; rumus dasar open vs closed sebenarnya tidak berubah

  • Saya penasaran apakah Cal.com benar-benar khawatir soal keamanan, atau ini cuma alasan untuk menutupi sulitnya open source SaaS
    Logika ini sudah terbukti salah sejak puluhan tahun lalu

  • Saya tidak percaya bahwa “security through obscurity” adalah alasan sebenarnya
    Mereka hanya mengira kalau menutup open source akan membuat mereka menghasilkan lebih banyak uang

    • Betul. Itu produk mereka, jadi terserah mereka
      Salah satu sisi buruk open source adalah orang-orang menganggap kerja gratis itu wajar
      Alih-alih berterima kasih kepada pengembang yang sudah bekerja gratis selama bertahun-tahun, mereka malah marah ketika orang itu tidak terus bekerja gratis
      Padahal mereka sendiri juga tidak mau bekerja tanpa gaji
  • Dari tulisannya, tampaknya Cal.com pernah diuji kerentanannya oleh bot red team
    Karena bug ditemukan terlalu cepat, mungkin CEO merasa biaya perbaikannya terlalu berat lalu menutup kodenya
    Ini nyaris terdengar seperti pernyataan terbuka bahwa “kode Cal.com punya banyak kerentanan”

    • Atau bisa juga pemindainya menghasilkan terlalu banyak false positive
      Jika disetel untuk menguranginya, kerentanan yang asli bisa terlewat, dan akhirnya biaya verifikasi membengkak
      Pada open source, laporan seperti ini terbuka dan bisa menimbulkan kerusakan reputasi, sedangkan pada model tertutup tidak
      Jadi mungkin itu juga alasan mereka beralih ke model tertutup
  • Risiko yang sebenarnya bukan deteksi kerentanan, melainkan kemampuan LLM menulis ulang proyek open source ke bahasa lain untuk mengakali lisensi

    • Secara teori hal yang sama juga mungkin pada proyek tertutup, tetapi batasannya jauh lebih banyak
    • Ini memang sering terjadi. AI meregenerasi kode hampir sama persis lalu membuat proyek tiruan
      Secara hukum masih abu-abu. Kalau manusia mempelajari lalu menulis ulang sendiri mungkin aman, tetapi kalau AI yang melakukannya, itu pada dasarnya copy-paste yang rumit
      Dalam kasus seperti ini belum jelas bagaimana lisensi akan diterapkan
    • Banyak lisensi open source memang mengizinkan fork dan dijual kembali
      Membuka kode saja tidak cukup untuk membangun bisnis; kemampuan operasional jauh lebih penting
  • Saya setuju dengan klaim bahwa “pengujian keamanan harus diotomatisasi dalam pipeline CI/CD
    Tetapi itu tidak membuktikan perlunya open source

  • Keseimbangan open source sebenarnya sudah rusak sejak lama
    Struktur di mana perusahaan memakai kode open source untuk membuat produk berbayar tanpa berkontribusi kembali sudah ada sejak lama
    Bahasa seperti PHP, yang dipakai di seluruh dunia tetapi kekurangan anggaran, adalah contohnya