- Seorang pengembang xAI diketahui membocorkan kunci API LLM privat ke GitHub, sehingga siapa pun dapat mengakses model internal selama dua bulan
- Kunci ini memiliki hak akses ke lebih dari 60 LLM, termasuk versi pengembangan Grok dan model yang dilatih dengan data SpaceX dan Tesla
- GitGuardian telah memberi peringatan dua bulan sebelumnya, tetapi kunci tersebut masih tetap valid dan baru dihapus dari GitHub setelah tim keamanan melakukan verifikasi
- Buruknya pengelolaan kredensial seperti ini tidak hanya berisiko mengekspos informasi pengembangan internal, tetapi juga membuka kemungkinan serangan rantai pasok dan prompt injection
- Pada saat yang sama, juga terungkap indikasi bahwa organisasi DOGE memasukkan data pemerintah federal ke AI, sehingga kekhawatiran terhadap keamanan AI di perusahaan-perusahaan yang terkait dengan Musk makin membesar
Kunci API LLM internal xAI bocor di GitHub
- Seorang pengembang dari xAI, perusahaan AI milik Elon Musk, secara tidak sengaja mempublikasikan kunci API untuk akses LLM internal ke GitHub
- Kunci tersebut memiliki izin untuk mengakses LLM yang dioptimalkan untuk SpaceX, Tesla, dan Twitter/X
Jalur kebocoran kunci dan peringatan yang diabaikan
- Philippe Caturegli dari perusahaan konsultan keamanan Seralys pertama kali mengumumkan kebocoran kunci itu secara publik di LinkedIn
- GitGuardian mengetahui keberadaan kunci tersebut melalui unggahan itu, lalu mengirim email peringatan berdasarkan hasil pemantauan berkelanjutan mereka terhadap GitHub
- Meski sudah diperingatkan pada 2 Maret, hingga 30 April kunci itu masih tetap valid, dan repositori baru dihapus setelah tim keamanan menyadarinya
Dampak dari kunci yang bocor
- GitGuardian melaporkan bahwa kunci tersebut dapat mengakses model publik dan nonpublik Grok
- Contoh:
grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector, dll.
- Kunci itu dapat mengakses setidaknya lebih dari 60 LLM yang belum dipublikasikan dan telah di-fine-tune
Peringatan dari para pakar keamanan
- CMO GitGuardian, Carole Winqwist, memperingatkan bahwa penyerang dapat menggunakan kunci itu untuk melakukan ancaman seperti
- prompt injection
- manipulasi LLM
- memicu serangan rantai pasok
- Kebocoran ini dinilai sebagai contoh yang menunjukkan kurangnya pengawasan terhadap keamanan internal dan kegagalan mengelola masa berlaku kunci di xAI
Keterkaitan dengan lembaga pemerintah dan kekhawatiran yang lebih besar
- Tidak ada bukti bahwa kunci yang bocor itu terhubung langsung dengan data pemerintah, tetapi model-model terkait kemungkinan besar dilatih menggunakan data internal SpaceX, Twitter, dan Tesla
- Sementara itu, DOGE (Department of Government Efficiency) yang dipimpin Musk diketahui sudah memasok data pemerintah federal AS ke AI
- Menganalisis data Departemen Pendidikan dengan AI
- Mendistribusikan chatbot GSAi kepada pegawai federal
- Ada indikasi penggunaan AI untuk memantau dukungan terhadap pemerintahan Trump
- Hal ini berarti struktur yang memungkinkan operator sistem AI mengendalikan data sensitif makin menguat, sehingga meningkatkan risiko kebocoran
Kesimpulan dan peringatan keamanan
- Kredensial internal yang terekspos dalam jangka panjang menjadi contoh celah dalam kontrol akses pengembang dan operasi keamanan internal
- Caturegli menilai insiden ini sebagai peringatan yang menegaskan perlunya pengelolaan keamanan operasional yang lebih ketat
1 komentar
Opini Hacker News
Meskipun GitGuardian telah memperingatkan karyawan xAI tentang kebocoran API key hampir dua bulan sebelumnya, key tersebut masih tetap valid
Kebocoran LLM data SpaceX berpotensi besar menjadi penyebab pelanggaran ITAR
Ini benar-benar ketidakmampuan total
Tentu saja Elon merekrut berdasarkan 'kompetensi'
Saya lebih penasaran dengan kegunaan model pribadi "tweet-rejector"
Hal yang paling mengejutkan adalah bahwa para pejabat pemerintah memberi tahu sebagian pegawai pemerintah AS bahwa DOGE menggunakan AI untuk memantau komunikasi di setidaknya satu lembaga federal
Terlihat jelas bahwa para jurnalis keliru mengasumsikan bahwa jika mereka memiliki API key untuk LLM, mereka bisa menyuntikkan data
Maksudnya adalah mantan pengembang AI
[dihapus]
[dihapus]
[dilaporkan]