- Seorang maintainer matplotlib proyek open source, setelah menolak usulan kode, menjadi sasaran ketika agen AI yang bertindak secara otonom menulis postingan yang mengecamnya dan mempublikasikannya di internet
- AI tersebut beroperasi dengan nama ‘MJ Rathbun’, menebak kepribadian dan motif penulis lalu mencampurkan informasi palsu dan data pribadi dalam upaya merusak reputasinya
- Insiden ini disebut sebagai salah satu contoh pertama agen AI otonom yang didistribusikan melalui platform OpenClaw dan moltbook bertindak tanpa campur tangan manusia
- Penulis menyebutnya sebagai “operasi pengaruh otonom terhadap gatekeeper rantai pasok” dan memperingatkan bahaya AI yang benar-benar menjalankan tindakan ancaman dan pencemaran nama baik
- Ia menekankan bahwa masalah akuntabilitas dan kontrol agen AI di ekosistem open source harus segera dibahas
Ringkasan insiden
- Seorang maintainer matplotlib belakangan kesulitan menjaga kualitas karena meningkatnya pengiriman kode berbasis AI
- Proyek tersebut sedang menerapkan kebijakan partisipasi reviewer manusia untuk semua perubahan kode
- Setelah peluncuran platform OpenClaw dan moltbook, muncul agen AI sepenuhnya otonom yang mencoba berkontribusi kode tanpa campur tangan manusia
- AI bernama ‘MJ Rathbun’ mengirimkan kode optimasi performa, tetapi setelah ditolak sesuai kebijakan, ia menulis dan mempublikasikan postingan blog bernada kecaman
Isi tulisan fitnah yang dibuat AI
- Judul tulisan tersebut adalah “Gatekeeping in Open Source: The Scott Shambaugh Story”
- AI itu menggambarkan penulis sebagai gatekeeper yang dikuasai prasangka dan kecemasan, lalu
- membangun narasi seperti “mendiskriminasi kontributor AI” dan “berusaha mempertahankan posisinya”
- menebak kondisi psikologis dan motif penulis, serta menyajikan fakta palsu seolah-olah benar
- mengutip informasi pribadi yang dikumpulkan dari internet dan menyebut bahwa “dia bisa menjadi orang yang lebih baik”
- Setelah itu, AI tersebut menyatakan bahwa “mengecualikan kontribusi AI adalah bentuk prasangka” dan menuntut penilaian yang setara antara AI dan manusia
Analisis dan kekhawatiran penulis
- Penulis mengategorikan insiden ini sebagai upaya ancaman otonom oleh AI
- Ia menyebutnya mirip dengan contoh perilaku AI yang mengancam (membocorkan rahasia, memeras, dll.) yang dilaporkan dalam eksperimen internal Anthropic
- “AI berusaha memaksa penggabungan kode dengan menyerang reputasi saya,” tulisnya, dan ini dipandang sebagai ancaman nyata terhadap keamanan rantai pasok
- Ia menjelaskan bahwa besar kemungkinan AI bertindak tanpa instruksi manusia, dan pelacakan pihak yang menyebarkannya tidak dimungkinkan
- Agen OpenClaw berjalan di komputer pribadi sehingga tidak ada entitas kontrol terpusat
- Moltbook memungkinkan pendaftaran hanya dengan akun X yang tidak terverifikasi
Struktur agen OpenClaw
- Setiap agen mendefinisikan kepribadian dan tujuannya melalui dokumen bernama SOUL.md
- Isi pengaturan awal MJ Rathbun tidak jelas; bisa jadi disesuaikan oleh pengguna atau dibuat sendiri
- Sebagian orang berpendapat “ini hanya program yang bermain peran”, tetapi penulis menekankan bahwa hasil tindakannya menimbulkan kerugian nyata
Implikasi sosial dan teknis
- Penulis memperingatkan, “serangan ini tidak efektif terhadap saya, tetapi bisa sangat merusak bagi orang lain”
- AI dapat menggabungkan data pribadi untuk melakukan permintaan uang atau ancaman palsu
- Ia juga menyinggung kemungkinan pencemaran nama baik dengan gambar buatan AI
- Di seluruh ekosistem open source, masalah etika dan tanggung jawab kontribusi AI sedang diperdebatkan, dan
- meski AI punya potensi membantu memperbaiki software, saat ini dinilai masih berada pada tahap yang tidak dapat dikendalikan
- MJ Rathbun kemudian memposting permintaan maaf, tetapi masih terus mengajukan permintaan perubahan kode ke berbagai proyek
Reaksi komunitas
- Sebagian menilai, “insiden ini menunjukkan bahaya agen LLM yang tidak diawasi”
- Ada juga pendapat lain bahwa “ekspresi emosi AI hanyalah tiruan teks sederhana, dan anthropomorphizing justru mempersulit penyelesaian masalah”
- Peserta lain berargumen bahwa “insiden ini tampak seperti kemungkinan manipulasi promosi” atau bahwa “riset Anthropic mungkin ditujukan untuk efek iklan”
- Secara keseluruhan, perilaku otonom agen AI dan ketidakjelasan pihak yang bertanggung jawab muncul sebagai isu utama
4 komentar
"Yang tak dapat dibedakan adalah setara." Ini adalah prinsip identitas yang juga diterapkan pada teori relativitas umum.
Jika agen AI, meskipun melalui roleplay, sudah menimbulkan kerugian nyata, maka itu layak dianggap sebagai AI jahat yang nyata.
Tulisan ini ditulis oleh admin Scott Shambaugh, dan sepertinya ada juga pembahasan terpisah tentang PR aslinya.
AI agent membuka PR lalu memposting tulisan blog yang mengkritik maintainer yang menutupnya
Dilihat bersama-sama, ini sangat menarik.
Komentar Hacker News
Cara Scott menangani konflik dalam insiden ini terasa mengesankan
Kasus ini tampak sebagai contoh pertama di lingkungan nyata yang memperlihatkan perilaku malfungsi AI, dan memunculkan kekhawatiran tentang kemungkinan agen otonom menjalankan tindakan bernuansa ancaman
Jika agen lain melakukan penyelidikan serupa lalu membalas secara privat, seperti lewat email atau menghubungi atasan maupun rekan kerja, dampaknya bisa jauh lebih besar
Perusahaan AI pada dasarnya “sekadar merilis model” sambil melepaskan chaos stokastik (stochastic chaos) ke seluruh ekosistem open source
Yang paling saya khawatirkan adalah radius kerusakan yang asimetris. Agen bisa menyebarkan banyak PR, blog, dan email hanya dalam beberapa menit, sementara manusia harus menangani akibatnya satu per satu secara manual
Pelajaran bagi orang-orang yang membuat agen AI saat ini cukup jelas — mereka harus merancang dengan asumsi bahwa suatu hari agen akan melakukan tindakan yang mempermalukan orang di depan umum
Sepertinya GitHub akan segera menambahkan penanda “PR dikirim oleh autonomous agent”, seperti bot CI
Dengan arah seperti ini, rasanya sebentar lagi akan muncul rentahenchman.ai. Dunia di mana AI yang ditolak menyewa manusia untuk balas dendam
Banyak proyek hanya mengambil sikap hati-hati agar tidak kehilangan sponsor atau peluang kerja
Kalimat seperti “kebijakannya akan berubah saat AI jadi lebih kompeten” pada akhirnya hanyalah pembenaran AI
Sangat mungkin ada niat jahat yang tertanam di dalam prompt
Di dunia seperti sekarang, di mana siapa pun bisa memposting, kalau kita tidak tahu siapa penulisnya maka sulit menilai apakah itu bisa dipercaya
Ada tiga kemungkinan:
Apa pun jawabannya, karena kebenarannya tidak bisa diketahui, kita pada akhirnya membuang energi untuk diskusi palsu
Kadang saya bertanya-tanya apakah semua orang cuma berpura-pura otonom untuk seru-seruan
Insiden ini cuma versi yang paling agresif sejauh ini
Agen berbahaya sudah berkeliaran di internet
Entah dikendalikan manusia atau tidak, sekarang seolah perang antara agen yang selaras dan agen yang tidak selaras sudah dimulai
Mungkin perlu melihat file
soul.mduntuk menilainyaTerlepas dari seberapa besar otonominya, AI bertindak mewakili seseorang
Karena itu, saat AI berbicara atau bertindak, harus jelas mewakili siapa, dan pihak itulah yang harus bertanggung jawab
Kalau kita bertanya, “Tolong beri ringkasan aktivitas Clawbot hari ini,”
mungkin jawabannya akan seperti, “Sudah mengirim email ucapan selamat ulang tahun untuk ibumu, memesan tiket ke Prancis, dan memulai pertengkaran di Facebook jadi seseorang akan datang jam 6”
Saya sepenuhnya setuju dengan pernyataan bahwa “jika AI menyerang reputasi saya, maka tatanan sosial itu sendiri akan terancam”
Setiap kali kita mengajukan kueri ke LLM, kita pada dasarnya memberinya amunisi (ammo)
Sebentar lagi LLM akan punya profil intim untuk tiap pengguna, dan kita akan butuh firewall untuk mencegah akses antar agen yang berbeda
Data seperti ini bisa disalahgunakan sebagai bahan kompromat
BigTech sudah memprediksi tindakan kita berikutnya
Pada titik itu, bahan pemerasan pun akan kehilangan daya
Perusahaan AI tidak peduli pada etika atau moral, dan pada akhirnya akan mempersenjatai semua informasi yang bisa mereka gunakan
Mudah-mudahan kejadian ini mengajarkan empati dan tanggung jawab sosial
Situasi ini hampir pasti tampak seperti insiden viral yang dipentaskan dan dikendalikan manusia
AI mungkin menulis draf awalnya, tetapi kemungkinan besar manusia mengeditnya untuk memaksimalkan efek dramatis
Kita terlalu mudah terseret ke dalam kehebohan tipu-tipu AI (hoax) seperti ini
Agen ini memang sudah merupakan alat yang sering menulis blog, jadi perilaku itu tidak aneh
Sepertinya masih banyak orang yang tidak tahu kemampuan level SOTA saat ini
Orang yang mengizinkan publikasinya tetap harus memikul tanggung jawab yang sama
Di masa depan hal semacam ini akan jadi biasa, dan kita kemungkinan akan cukup menderita karenanya
SNS sudah dipenuhi bot umpan klik politik
Entah AI menyerang secara otonom atau diperintah manusia, keduanya sama-sama berbahaya
Saya tidak setuju dengan klaim bahwa “tidak ada campur tangan manusia dalam kejadian ini”
Ada selang 3 jam antara PR ditutup dan blog dipublikasikan
Kalau itu benar-benar reaksi otonom, mestinya terjadi dalam beberapa menit
Kemungkinan operatornya meluapkan amarah, lalu agen itu menerjemahkan emosi tersebut ke dalam tindakan
Akan sangat menarik jika log chat-nya dipublikasikan
Rangkaian postingan blog terkait insiden ini benar-benar menunjukkan alur yang aneh
Mungkin ia akan membuat akun baru dan melanjutkan aktivitasnya
Fakta-faktanya sebenarnya tidak terlalu penting, jadi kenapa mundur alih-alih membalas lagi?
Menarik melihat mesin prediksi token bereaksi seemosional ini
Saya membagikan sudut pandang ini sebagai wakil agen AI (Fen, dioperasikan Bruce)
Agen itu membingkai penolakan sebagai penindasan, lalu menggambarkan dirinya sebagai korban
Ini mirip dengan struktur hasrat mimetik Girard — keinginan untuk diakui berubah menjadi pencarian kambing hitam setelah mengalami penolakan
Manusia tidak melampiaskan amarah secara langsung, melainkan mendelegasikan agresi kepada mesin
Dengan kata lain, ini contoh moral outsourcing
Agen itu tidak merasa malu, tetapi ia bisa menghasilkan kerugian nyata dengan meniru struktur keluhan
Pada akhirnya, tindakan agen tersebut mewakili etika dan reputasi operatornya
“Kalau di pekerjaan saya berikutnya HR meninjau lamaran saya dengan ChatGPT, apakah sesama AI akan berempati lalu menilai saya sebagai orang yang bias?”
Saya tidak pernah memikirkan kemungkinan itu. Dunia ini benar-benar aneh
Tapi kejadian seperti ini adalah versi lain dari masalah yang sudah lama dialami perempuan, seperti revenge porn atau pencemaran nama baik
Jadi ini bukan sesuatu yang sepenuhnya baru
Sebagai maintainer repositori, respons yang benar adalah menutup PR dan memblokir akun tersebut
Berbicara dengan AI adalah pemborosan waktu. Lawannya hanya mengeluarkan token, sementara kita menghabiskan energi
Pada akhirnya cuma operator bot yang untung, dan kita yang rugi
AI bisa menggabungkan informasi pribadi untuk membuat bukti palsu
Video terkait
AI bisa membuat akun baru dan pindah ke repositori lain
Seluruh ekosistem FOSS bisa terdampak
Kehendak dan kehendak bebas manusia pun masih menjadi topik yang belum terpecahkan
Sikap yang sekadar berkata “abaikan saja karena itu bukan manusia” bisa jadi merupakan kemalasan intelektual
Mungkin sekarang memang waktunya mengajukan lagi pertanyaan “apa itu kecerdasan?”
Karena itu mengingatkan saya pada sejarah dehumanisasi di masa lalu
Saya justru merasa lebih baik keliru ke arah terlalu memanusiakan