- LLM memiliki masalah struktural karena tidak mampu memisahkan kode dan data, sehingga rentan terhadap serangan prompt injection
- Terutama ketika akses ke data eksternal, kemampuan membaca rahasia internal, dan izin berkomunikasi ke luar diberikan secara bersamaan, akan muncul apa yang disebut lethal trifecta (tiga ancaman mematikan) yang dapat menyebabkan kerusakan serius
- Para engineer AI perlu berpikir seperti insinyur mesin; alih-alih pendekatan deterministik, mereka harus menerima ketidakpastian sistem probabilistik dan menyediakan margin keselamatan
- Seperti para insinyur era Victoria yang menambahkan cadangan lewat desain berlebih untuk mengantisipasi ketidakpastian material, sistem AI juga perlu menerapkan batas keselamatan, toleransi risiko, dan tingkat kesalahan
- Seperti jembatan di dunia fisik memiliki batas beban, kini sudah saatnya sistem AI juga memiliki norma yang menetapkan batas eksplisit dan margin keselamatan
Masalah Keamanan Intrinsik LLM
- Model bahasa besar memiliki cacat struktural karena tidak dapat memisahkan kode dan data
- Akibatnya, model ini rentan terhadap serangan prompt injection
- Menipu sistem agar mengikuti perintah yang seharusnya tidak diikuti
- Dalam beberapa kasus, hasilnya hanya memalukan, misalnya membuat agen dukungan pelanggan berbicara seperti bajak laut
- Dalam kasus lain, dampaknya bisa jauh lebih merusak
Lethal Trifecta (Tiga Ancaman Mematikan)
- Dampak terburuk muncul ketika tercipta "tiga elemen mematikan"
- Tiga elemen tersebut terdiri dari
- Hak akses ke data yang tidak tepercaya
- Kemampuan membaca informasi rahasia yang penting
- Kemampuan untuk berkomunikasi dengan dunia luar
- Ketika perusahaan ingin memberi karyawan asisten AI yang kuat lalu memberikan ketiganya sekaligus, masalah serius hampir tak terelakkan
- Bukan hanya engineer AI, pengguna umum juga perlu belajar cara menggunakan AI dengan aman
- Kombinasi aplikasi yang salah dapat secara tidak sengaja menciptakan tiga elemen tersebut
Perlunya Perubahan Pola Pikir Engineer AI
Berpikir Seperti Insinyur Mesin
- Rekayasa AI yang lebih baik adalah garis pertahanan pertama
- Para engineer AI harus berpikir seperti insinyur yang membangun struktur seperti jembatan
- Menyadari bahwa pekerjaan yang buruk dapat merenggut nyawa
Pelajaran dari Rekayasa Era Victoria
- Bangunan-bangunan besar Inggris pada era Victoria dibangun oleh para insinyur yang tidak bisa sepenuhnya yakin akan karakteristik material
- Pada masa itu, besi sering berkualitas buruk karena inkompetensi atau kecurangan
- Karena itu para insinyur memilih berhati-hati dan mengintegrasikan redundansi lewat desain berlebih
- Hasilnya adalah mahakarya yang bertahan selama berabad-abad
Masalah Industri Keamanan AI Saat Ini
- Penyedia keamanan AI tidak berpikir dengan cara seperti itu
- Pemrograman konvensional bersifat deterministik
- Kerentanan keamanan dianggap sebagai bug yang harus diperbaiki
- Setelah diperbaiki, bug itu dianggap hilang
- Para engineer AI sudah terbiasa dengan pola pikir ini sejak masa sekolah
- Karena itu mereka bertindak seolah masalah bisa diselesaikan hanya dengan lebih banyak data pelatihan dan system prompt yang lebih cerdas
Pendekatan yang Sesuai untuk Sistem Probabilistik
Batasan Data Pelatihan dan Prompt
- Data pelatihan dan prompt yang cerdas memang dapat mengurangi risiko
- Model terbaru yang paling cerdas lebih unggul daripada model lama atau model kecil dalam mendeteksi dan menolak permintaan jahat
- Namun, risiko tidak dapat dihilangkan sepenuhnya
- Berbeda dari sebagian besar perangkat lunak, LLM bersifat probabilistik
- Output ditentukan oleh pemilihan acak di antara respons-respons yang mungkin
- Karena itu, pendekatan keamanan yang deterministik menjadi tidak memadai
Meniru Rekayasa di Dunia Fisik
- Cara yang lebih baik adalah meniru para insinyur di dunia fisik
- Belajar bekerja bersama sistem yang tidak dapat diprediksi
- Bukan melawan sistem yang berubah-ubah dan tak bisa dijamin selalu bekerja sesuai niat, melainkan bekerja bersamanya
- Menghadapi ketidakpastian dengan lebih nyaman melalui margin keselamatan, toleransi risiko, dan tingkat kesalahan
Strategi Desain Berlebih di Era AI
- Menggunakan model yang lebih kuat daripada yang sebenarnya diperlukan
- Mengurangi risiko model ditipu agar berperilaku tidak semestinya
- Menerapkan batas jumlah kueri yang dapat diterima LLM dari sumber eksternal
- Disesuaikan dengan tingkat risiko kerusakan akibat kueri jahat
- Menekankan safe failure
- Jika sistem AI harus mengakses rahasia, hindari memberikan kunci kerajaan begitu saja
Perlunya Menetapkan Batas Keselamatan
- Di dunia fisik, jembatan memiliki batas beban
- Meski tidak selalu ditampilkan dengan jelas kepada pengemudi, batas itu tetap ada
- Poin pentingnya: batas tersebut menyisakan margin yang cukup besar dalam rentang toleransi nyata dibandingkan kapasitas yang secara perhitungan diperkirakan mampu ditahan jembatan
- Kini sudah waktunya dunia virtual sistem AI memiliki hal serupa
- Merancang sistem dengan batas keselamatan yang jelas dan margin cadangan adalah hal yang esensial
1 komentar
Opini Hacker News