4 poin oleh GN⁺ 2025-05-03 | 1 komentar | Bagikan ke WhatsApp
  • Seorang pengembang xAI diketahui membocorkan kunci API LLM privat ke GitHub, sehingga siapa pun dapat mengakses model internal selama dua bulan
  • Kunci ini memiliki hak akses ke lebih dari 60 LLM, termasuk versi pengembangan Grok dan model yang dilatih dengan data SpaceX dan Tesla
  • GitGuardian telah memberi peringatan dua bulan sebelumnya, tetapi kunci tersebut masih tetap valid dan baru dihapus dari GitHub setelah tim keamanan melakukan verifikasi
  • Buruknya pengelolaan kredensial seperti ini tidak hanya berisiko mengekspos informasi pengembangan internal, tetapi juga membuka kemungkinan serangan rantai pasok dan prompt injection
  • Pada saat yang sama, juga terungkap indikasi bahwa organisasi DOGE memasukkan data pemerintah federal ke AI, sehingga kekhawatiran terhadap keamanan AI di perusahaan-perusahaan yang terkait dengan Musk makin membesar

Kunci API LLM internal xAI bocor di GitHub

  • Seorang pengembang dari xAI, perusahaan AI milik Elon Musk, secara tidak sengaja mempublikasikan kunci API untuk akses LLM internal ke GitHub
  • Kunci tersebut memiliki izin untuk mengakses LLM yang dioptimalkan untuk SpaceX, Tesla, dan Twitter/X

Jalur kebocoran kunci dan peringatan yang diabaikan

  • Philippe Caturegli dari perusahaan konsultan keamanan Seralys pertama kali mengumumkan kebocoran kunci itu secara publik di LinkedIn
  • GitGuardian mengetahui keberadaan kunci tersebut melalui unggahan itu, lalu mengirim email peringatan berdasarkan hasil pemantauan berkelanjutan mereka terhadap GitHub
  • Meski sudah diperingatkan pada 2 Maret, hingga 30 April kunci itu masih tetap valid, dan repositori baru dihapus setelah tim keamanan menyadarinya

Dampak dari kunci yang bocor

  • GitGuardian melaporkan bahwa kunci tersebut dapat mengakses model publik dan nonpublik Grok
    • Contoh: grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector, dll.
  • Kunci itu dapat mengakses setidaknya lebih dari 60 LLM yang belum dipublikasikan dan telah di-fine-tune

Peringatan dari para pakar keamanan

  • CMO GitGuardian, Carole Winqwist, memperingatkan bahwa penyerang dapat menggunakan kunci itu untuk melakukan ancaman seperti
    • prompt injection
    • manipulasi LLM
    • memicu serangan rantai pasok
  • Kebocoran ini dinilai sebagai contoh yang menunjukkan kurangnya pengawasan terhadap keamanan internal dan kegagalan mengelola masa berlaku kunci di xAI

Keterkaitan dengan lembaga pemerintah dan kekhawatiran yang lebih besar

  • Tidak ada bukti bahwa kunci yang bocor itu terhubung langsung dengan data pemerintah, tetapi model-model terkait kemungkinan besar dilatih menggunakan data internal SpaceX, Twitter, dan Tesla
  • Sementara itu, DOGE (Department of Government Efficiency) yang dipimpin Musk diketahui sudah memasok data pemerintah federal AS ke AI
    • Menganalisis data Departemen Pendidikan dengan AI
    • Mendistribusikan chatbot GSAi kepada pegawai federal
    • Ada indikasi penggunaan AI untuk memantau dukungan terhadap pemerintahan Trump
  • Hal ini berarti struktur yang memungkinkan operator sistem AI mengendalikan data sensitif makin menguat, sehingga meningkatkan risiko kebocoran

Kesimpulan dan peringatan keamanan

  • Kredensial internal yang terekspos dalam jangka panjang menjadi contoh celah dalam kontrol akses pengembang dan operasi keamanan internal
  • Caturegli menilai insiden ini sebagai peringatan yang menegaskan perlunya pengelolaan keamanan operasional yang lebih ketat

1 komentar

 
GN⁺ 2025-05-03
Opini Hacker News
  • Meskipun GitGuardian telah memperingatkan karyawan xAI tentang kebocoran API key hampir dua bulan sebelumnya, key tersebut masih tetap valid

    • xAI meminta GitGuardian untuk melaporkan masalah itu melalui program bug bounty HackerOne, tetapi beberapa jam kemudian repositori GitHub yang berisi API key tersebut dihapus
    • Cukup mengejutkan bahwa tim keamanan mengarahkan laporan itu ke program HackerOne
    • Untungnya, pada akhirnya masalah tersebut sampai ke orang yang benar-benar bisa memperbaikinya
  • Kebocoran LLM data SpaceX berpotensi besar menjadi penyebab pelanggaran ITAR

  • Ini benar-benar ketidakmampuan total

    • Bukan hanya pengembang, tetapi semua organisasi harus terus-menerus memindai kebocoran API key
    • Satu kegagalan berarti ada banyak kegagalan
  • Tentu saja Elon merekrut berdasarkan 'kompetensi'

  • Saya lebih penasaran dengan kegunaan model pribadi "tweet-rejector"

  • Hal yang paling mengejutkan adalah bahwa para pejabat pemerintah memberi tahu sebagian pegawai pemerintah AS bahwa DOGE menggunakan AI untuk memantau komunikasi di setidaknya satu lembaga federal

    • Saya paham bahwa kita tidak bisa mengharapkan privasi di tempat kerja, tetapi mengerikan jika pemberi kerja pada dasarnya mengawasi kejahatan pikiran
    • Bukankah perbedaan pendapat itu sehat?
  • Terlihat jelas bahwa para jurnalis keliru mengasumsikan bahwa jika mereka memiliki API key untuk LLM, mereka bisa menyuntikkan data

    • Orang-orang masih belum memahami cara kerja LLM dan mengira mereka bisa melatihnya lewat interaksi di level API
  • Maksudnya adalah mantan pengembang AI

  • [dihapus]

  • [dihapus]

  • [dilaporkan]