- Seorang staf institusi medis membuat sendiri sistem manajemen pasien dengan AI coding agent, sehingga data pasien terpapar di internet tanpa enkripsi
- Rekaman percakapan konsultasi dikirim ke dua layanan AI untuk diringkas secara otomatis, dan seluruh data terbuka dengan izin baca-tulis
- Data disimpan di server AS dan dioperasikan tanpa perjanjian pemrosesan data (DPA), serta pasien tidak diberi pemberitahuan sebelumnya
- Tindakan ini berpotensi melanggar undang-undang perlindungan data nDSG Swiss dan kewajiban menjaga kerahasiaan profesional
- Penulis memperingatkan bahwa “jika AI coding berhenti pada level vibe semata, itu akan menuju masa depan yang tidak aman”
Bencana keamanan pada aplikasi manajemen pasien buatan AI
- Kasus seorang staf institusi medis yang membuat sendiri sistem manajemen pasien menggunakan AI coding agent
- Mengimpor seluruh data pasien yang sudah ada lalu mendistribusikannya secara publik di internet
- Menambahkan fitur perekaman percakapan saat konsultasi, lalu mengirimkannya ke dua layanan AI untuk mewujudkan fungsi ringkasan otomatis
- Akibatnya, seluruh data pasien berada dalam kondisi terpapar di internet tanpa enkripsi
- Penulis memperoleh izin baca-tulis ke seluruh data hanya dalam 30 menit
- Masalah tersebut sudah dilaporkan, tetapi balasan yang diterima adalah pesan terima kasih yang dibuat otomatis oleh AI
- Data disimpan di server AS dan dioperasikan tanpa perjanjian pemrosesan data (DPA)
- File rekaman suara juga dikirim ke perusahaan AI yang berbasis di AS
- Pasien tidak diberi tahu sebelumnya mengenai pemrosesan data ini
- Tindakan ini berpotensi melanggar nDSG (undang-undang perlindungan data) Swiss dan kewajiban menjaga kerahasiaan profesional (Berufsgeheimnis)
- Meskipun bukan ahli hukum, penulis menilai banyak ketentuan kemungkinan telah dilanggar
- Disampaikan peringatan bahwa “jika AI coding tetap berada pada level ‘vibe’ semata, itu akan berujung pada masa depan yang tidak aman”
Latar belakang teknis
- Aplikasi terdiri dari satu file HTML
- Seluruh JavaScript, CSS, dan kode struktur disertakan secara inline
- Backend menggunakan layanan basis data terkelola tanpa kontrol akses sama sekali
- Logika kontrol akses hanya ada di JavaScript sisi klien
- Akses data dimungkinkan hanya dengan satu baris perintah
curl
- Semua file rekaman suara dikirim langsung ke API AI eksternal untuk proses transkripsi dan peringkasan
- Hanya dari ini saja sudah jelas terlihat adanya kelemahan keamanan yang serius
Prospek
- Saat menggunakan alat AI coding, kemampuan memahami struktur kode dan arsitektur adalah hal yang wajib
- Pendekatan yang sekadar “menikmati suasana coding dengan AI (vibing)” akan memicu hasil yang berbahaya
- Di tengah meluasnya alat pengembangan AI, kesadaran keamanan dasar dan pemahaman teknis mutlak diperlukan
11 komentar
Ya, sudah sih... bahkan kalau cari
OPENAI_API_KEYdi GitHub saja, yang ketemu nyangkut juga banyak...Kalau begini terus, mungkin akan datang masa ketika kita harus sampai mengambil sertifikat vibe coding..
Dunia jadi sangat kacau karena semakin banyak orang yang berpura-pura menjadi ahli lewat AI, lalu mulai banyak bicara.
...
Di Korea juga, sesuai dengan Undang-Undang Perlindungan Informasi dan Pasal 21 Ayat 2 Undang-Undang Medis, pekerja di institusi medis diatur agar tidak memperlihatkan catatan pasien kepada orang lain dalam situasi yang tidak termasuk alasan pengecualian.
https://law.go.kr/%EB%B2%95%EB%A0%B9/%EC%9D%98%EB%A3%8C%EB%B2%95/…
Berkat lingkungan perlindungan informasi Korea yang tertinggal, semua orang begitu memuja pemisahan jaringan, jadi untungnya insiden seperti ini tampaknya jarang terjadi di rumah sakit besar.
Karena lingkungan untuk melihat catatan pasien berada di jaringan internal, pengguna yang tidak paham keamanan sulit langsung menghubungkan layanan AI komersial.
Saya tidak tahu apa yang terjadi di klinik tingkat pertama yang menghubungkan komputer untuk perawatan langsung ke jaringan internet haha
PHI harus selalu ditangani dengan hati-hati... dan lebih hati-hati lagi...
Saya juga memberi tahu teman saya tentang Claude Code, lalu sekitar dua minggu kemudian dia bilang, "Aku sudah bikin sesuatu!!" dan ternyata situasi yang persis sama juga terjadi.
Katanya teknologi untuk menemukan kerentanan keamanan juga sudah berkembang pesat
Karena ketika kerentanan itu ditemukan, kebutuhan akan cara untuk mengamankannya juga ikut muncul
Jadi tampaknya metode keamanan juga akan ikut disempurnakan.
Pertama-tama, orang yang bukan ahli kemungkinan bahkan tidak tahu hal-hal seperti itu ada, ataupun mengapa hal-hal itu diperlukan.
Semakin begitu, semakin timbul rasa waspada bahwa kita harus mempelajari ilmu komputer.
Menurut saya, ini benar-benar ungkapan yang sangat tepat sasaran.
Opini Hacker News
Pernah mengalami hal serupa di Spanyol. Bukan di bidang medis, melainkan perusahaan asuransi kecil, dan sulit dipercaya, tetapi mereka juga membuat CRM dengan vibe-coding
Saat saya memberi tahu masalahnya lewat email, mereka mengancam akan menuntut saya. Konyol sekali, tetapi akhirnya saya melaporkannya ke AEPD (otoritas perlindungan data Spanyol). Lembaga ini terkenal cukup kuat
Jumat lalu saya juga mengirim burofax untuk meminta penghapusan data pribadi saya
Saya memberi tahu masalahnya lewat README.txt, tetapi tidak ada yang berubah. Saya sempat berpikir untuk datang langsung, memperbaikinya, dan mungkin menjadikannya pekerjaan pertama saya, tetapi mereka malah marah. Mereka bilang sudah memakai vendor mahal dan menuduh saya menyusup. Jadi saya langsung pergi
Di forum UKM tempat saya berada, ada seseorang yang membanggakan bahwa dia membuat sendiri aplikasinya dengan AI. Tapi dia sama sekali tidak tahu tanggung jawab hukumnya, dan ketika para developer di Reddit berkata “sewa developer sungguhan”, dia marah. Sekarang dia percaya developer adalah spesies yang hampir punah
Di LinkedIn, para salesman yang tidak paham teknologi terus bicara seolah AI adalah jawaban untuk semua masalah
Dalam suasana seperti ini, ada rasa cemas bahwa suatu hari nanti akan terjadi insiden yang benar-benar besar
vibe-coding memang keren, tetapi batasnya cepat terlihat
Setelah melewati ribuan baris, strukturnya runtuh, dan sistem nyata jauh lebih kompleks. Pada akhirnya tetap dibutuhkan dasar-dasar rekayasa perangkat lunak
Untuk prototipe atau alat internal mungkin tidak masalah, tetapi untuk produksi nyata berbahaya. Saya tidak ingin menitipkan data saya ke sistem seperti ini
Saya memakai Jira Rovo MCP dengan Claude Code untuk membuat desain dan dokumentasi, lalu meninjaunya secara manual sebelum mengimplementasikan di sesi baru
LLM makin banyak konteks justru makin bodoh, jadi sangat disarankan memakai pengaturan context status bar
Saya menguji Gemma 4 secara lokal, dan meski lambat, kemampuannya setara model cloud. Kelebihannya, data tidak keluar ke pihak luar
Beberapa bulan lalu saya melihat web app hasil vibe-coding yang dibuat seorang ahli bedah
Aplikasinya memang berjalan, tetapi tidak ada index.html di direktori root, dan file backup berisi info koneksi DB serta key AWS apa adanya
Menambahkan index.html kosong sebenarnya cukup untuk menyelesaikannya, tetapi baik developer maupun AI tidak tahu alasannya
Aplikasinya sendiri mengesankan, tetapi ada terlalu banyak kesalahan keamanan mendasar. Cukup sekali ditinjau DevOps berpengalaman, masalahnya bisa selesai
Pada akhirnya AI tidak tahu hal yang “tidak ditanyakan”. Developer berpengalaman mengingat kegagalan masa lalu, sedangkan vibe-coder hanya punya prompt
Kalimat “semua logika kontrol akses ada di JavaScript klien” benar-benar yang terburuk
Ini adalah contoh khas nonprofesional yang memakai AI secara sembrono.
Saat memakai AI dalam pekerjaan nyata, tanggung jawab dan risikonya harus disadari
Tanpa kontrol workflow yang layak dan verifikasi hasil, masalah seperti ini akan terus muncul. Saat ini kita masih berada di era Wild West untuk LLM
Saya rasa rekayasa perangkat lunak sekarang juga memerlukan sistem kualifikasi profesional
Seperti halnya merancang jembatan atau gedung memerlukan sertifikasi, developer yang membangun sistem penting juga seharusnya memenuhi standar tertentu
Pada akhirnya, seiring waktu, pemahaman tentang AI dan privasi akan terbentuk
Tulisan ini terasa terlalu samar sampai seperti fiksi
Jika AI dilatih untuk menyembunyikan implementasi, misalnya membuat klien tipis dan memakai autentikasi OAuth, apakah hasilnya akan lebih baik?
Kesalahan sederhana seperti ini sebetulnya sangat bisa dicegah. Tetapi tujuannya tetap menggantikan developer
Yang lebih buruk, orang mulai percaya bahwa “mempelajari hal sulit itu tidak efisien”
Saya bekerja di bidang kriptografi, dan sebagian mahasiswa mengira keterampilan keamanan akan segera hilang karena AI. Jadi saya menyuruh mereka mengimplementasikan autentikasi web sederhana agar mereka melihat kenyataannya
Sejauh yang saya tahu, sebuah firma akuntansi yang saya kenal juga sedang membuat CRM sendiri dengan Lovable. Tidak ada staf teknis sama sekali
Bencana yang akan terjadi sudah terlihat jelas
Semua industri berisiko tinggi lain punya sistem verifikasi ganda. Pilot punya kopilot, ahli bedah punya checklist, pembangkit nuklir punya verifikasi independen
Tetapi software adalah pengecualian, dan vibe-coding bahkan menghapus verifikasi berbasis pemahaman yang sebelumnya masih ada