- Pada Februari 2026, militer AS mengebom Sekolah Dasar Minab di Iran dan menewaskan lebih dari 175 orang; pada awalnya beredar laporan keliru bahwa Claude milik Anthropic yang memilih target
- Keputusan target yang sebenarnya dibuat oleh sistem Maven milik Palantir, dan kegagalan memperbarui data militer lama berujung pada jatuhnya korban sipil
- Maven mengotomatisasi prosedur kill chain hingga mampu menentukan 1.000 target per jam, dan dalam prosesnya tahap verifikasi serta evaluasi ulang dihapus
- Otomatisasi seperti ini, sebagaimana kasus salah serang pada Perang Vietnam dan Perang Kosovo di masa lalu, berujung pada masalah struktural yang berulang ketika kepercayaan pada teknologi menggantikan penilaian manusia
- Inti peristiwa ini bukanlah kesalahan AI, melainkan sistem birokratis yang menyingkirkan penilaian dan lenyapnya tanggung jawab manusia
Pengeboman sekolah dasar di Minab, Iran, dan ilusi ‘AI yang bertanggung jawab’
- Pada 28 Februari 2026, militer AS mengebom Sekolah Dasar Shajareh Tayyebeh di Minab, Iran selatan, menewaskan 175–180 orang termasuk siswi berusia 7–12 tahun
- Segera setelah pengeboman, media dan kalangan politik berfokus pada apakah chatbot Anthropic, Claude, yang memilih target
- Namun sistem penentuan target yang sebenarnya adalah Maven milik Palantir, dan Claude tidak terkait
- Sekolah tersebut dulunya adalah fasilitas militer, tetapi karena gagal memperbarui informasi tetap diklasifikasikan sebagai target militer
Asal-usul dan struktur sistem Maven
- Maven adalah proyek yang dimulai pada 2017 oleh Algorithmic Warfare Cross-Functional Team milik Departemen Pertahanan AS
- Tujuan awalnya adalah mengotomatisasi analisis video drone, untuk mengurangi beban kerja analis manusia yang berlebihan
- Google awalnya memegang kontrak, tetapi menarik diri karena penolakan internal; setelah itu Palantir Technologies memimpin pengembangan sejak 2019
- Maven berkembang menjadi infrastruktur penargetan yang mengintegrasikan data satelit, sinyal, dan sensor untuk menghubungkan proses dari deteksi target hingga perintah serangan
- Palantir membangun ulang Maven sebagai “Smart System” yang menggabungkan fusi data real-time dan dukungan pengambilan keputusan otomatis
- Antarmuka Maven disusun sebagai papan workflow bergaya Kanban, sehingga target diproses dengan berpindah antar-tahap
- Dengan 3 klik, data deteksi dapat diubah menjadi target resmi, dan sistem merekomendasikan sarana serangan serta kombinasi senjata
Pemadatan ‘kill chain’ dan perlombaan kecepatan
- Maven adalah bentuk pemadatan paling mutakhir dari prosedur militer yang disebut ‘kill chain’
- Kill chain adalah konsep yang menata prosedur dari deteksi hingga penghancuran, dan militer AS selama puluhan tahun mengembangkan teknologi untuk mempersingkatnya
- Maven adalah sistem yang secara ekstrem meningkatkan kecepatan keputusan, dengan target pada 2024 untuk menentukan 1.000 target per jam
- Artinya 1 keputusan tiap 3,6 detik, atau pada level per individu 1 keputusan tiap 72 detik
- Dalam Perang Irak 2003, pekerjaan penargetan yang dulu dilakukan 2.000 orang digantikan oleh 20 orang
- Peningkatan kecepatan menghilangkan ruang untuk penilaian, dan proses verifikasi, keberatan, serta evaluasi ulang pun lenyap
- Akibatnya, kemungkinan salah menilai meningkat dan korban sipil meluas
Pengulangan sejarah: kepercayaan pada teknologi dan lenyapnya penilaian
- Masalah Maven bukan fenomena baru, melainkan pengulangan pola historis ketika otomatisasi teknis menggantikan penilaian
- Operation Igloo White pada Perang Vietnam 1960-an adalah sistem penargetan berbasis sensor yang bermasalah dan menghasilkan capaian palsu
- CIA melaporkan bahwa “jumlah truk yang dihancurkan” melebihi jumlah yang benar-benar ada, memperlihatkan ketertutupan sistem yang mustahil memverifikasi dirinya sendiri
- Doktrin pengeboman presisi pada Perang Dunia II juga terobsesi pada efisiensi hingga kehilangan makna target, dan disebut sebagai ‘technological fanaticism’
- Manual penargetan Angkatan Udara AS tahun 1998 menekankan “pemikiran rasional yang berbasis fakta dan kesimpulan”, tetapi
- dalam operasi nyata, ‘target package (TIP)’ berbasis PowerPoint dikukuhkan lewat kutip-mengutip sirkular tanpa verifikasi
- Dalam Perang Kosovo 1999, insiden salah bom terhadap Kedutaan Besar China tercatat sebagai contoh representatif dari kesalahan prosedural semacam ini
Penghapusan penilaian dan ‘double bind birokratis’
- Organisasi membutuhkan pembuat keputusan yang dapat menafsirkan pengecualian sambil tetap mengikuti aturan,
- tetapi karena mengakui penilaian akan menggoyahkan otoritas aturan, organisasi berusaha mengubah penilaian menjadi angka dan prosedur
- Sejarawan Theodore Porter menyebut ini sebagai “Trust in Numbers”
- CEO Palantir, Alex Karp, dalam bukunya The Technological Republic menulis bahwa
- “software adalah juru mudi, dan hardware adalah sarana untuk menjalankan rekomendasi AI”
- Ia mengajukan model ‘tindakan kolektif otonom (bee swarm)’ sebagai bentuk ideal yang menghapus penilaian manusia di tengah proses
- Namun ini berujung pada proseduralisasi total yang menghapus ruang interpretasi, yakni ‘birokrasi yang rapuh’
- Proses rapat, pelaporan, dan peninjauan bukanlah inefisiensi, melainkan satu-satunya titik tempat penilaian dapat masuk,
- tetapi Maven menggantinya dengan papan Kanban workflow dalam software dan menghapus ruang untuk penilaian
Penyebab struktural pengeboman sekolah di Minab
- Dalam target package, bangunan tersebut diklasifikasikan sebagai fasilitas militer,
- padahal sebenarnya terdaftar sebagai sekolah di Google Maps dan basis data komersial Iran
- Namun pada kecepatan pengambilan keputusan 1.000 kasus per jam, tidak ada yang mencarinya atau memverifikasinya
- Tanpa persetujuan Kongres, 6.000 target diserang dalam dua minggu, dan salah satunya adalah sekolah dasar
- Setelah kejadian, pembahasan justru berfokus pada “kesalahan Claude”,
- sehingga tanggung jawab politik dan hukum yang utama, seperti legalitas perang, ada tidaknya persetujuan Kongres, dan kemungkinan kejahatan perang, tertutupi
- Bingkai “masalah AI” berfungsi sebagai tempat pelarian yang menyembunyikan keputusan dan tanggung jawab manusia
- Seseorang memadatkan kill chain, menganggap pertimbangan matang sebagai ‘latency’,
- lalu merancang sistem yang menyebut keputusan target 1.000 kasus per jam sebagai ‘berkualitas tinggi’
- Semua keputusan itu dibuat oleh manusia, dan AI tidak dapat menggantikan tanggung jawab tersebut
1 komentar
Opini Hacker News
Maven adalah alat yang dibuat untuk dipakai di tengah perang
Saat kedua pihak sedang bertempur, menghemat beberapa menit berarti menyelamatkan nyawa
Tetapi serangan kali ini bukan terjadi di tengah pertempuran, melainkan serangan mendadak. Dalam situasi tanpa serangan balasan, menghemat waktu tidak berarti menyelamatkan nyawa
Identifikasi target seharusnya dilakukan dengan lebih hati-hati, dan manusia seharusnya memverifikasinya berkali-kali. Sekolah itu jelas adalah sekolah, bahkan punya situs web
Beralih ke target berikutnya hanya dengan tiga klik jelas merupakan kelalaian manusia. Ada cukup waktu untuk mencegah kesalahan seperti ini
Entah karena terlalu percaya pada alat atau karena mengabaikan nyawa warga sipil, hasilnya adalah kematian anak-anak perempuan
Semoga orang yang membuat keputusan ini benar-benar dimintai pertanggungjawaban
AS memulai perang dengan tujuan mendestabilisasi negara, dan dalam prosesnya mengabaikan korban sipil
Ini seperti saya membakar sebuah rumah lalu belakangan berdalih, “Saya tidak tahu itu taman kanak-kanak”
Bahkan pada era ‘perang melawan teror’, ada banyak kasus pengeboman aula pernikahan lalu disebut sebagai “kesalahan”
Tetapi informasi online seperti ini bukan dasar yang andal untuk memilih target
Identifikasi seharusnya dilakukan lewat informasi langsung seperti pengamatan satelit. Sekolah punya pola aktivitas tertentu dan akan terlihat berbeda dari fasilitas militer
Kemungkinan seluruh pangkalan ditandai sebagai satu unit, lalu gedung sekolah disalahartikan sebagai bagian dari pangkalan
Setelah perintah turun, mungkin ada tekanan waktu. Bagaimanapun, ini adalah tragedi
Jika hanya ada satu salah serang dari ribuan sortie, tingkat kesalahannya tergolong rendah, tetapi kasus ini jelas merupakan kegagalan
Namun, klaim bahwa “tidak ditinjau dengan cukup” kurang kuat dasarnya. Faktanya, orang dalam mengatakan target ini seharusnya sudah dikeluarkan dari daftar eliminasi
Karena hakikat serangan mendadak seperti ini, tanggung jawab sepenuhnya ada pada perencana, pemberi persetujuan, dan pelaksana
Pertanyaan “mengapa anak-anak berada di sekolah” lahir dari ketidaktahuan. Iran punya sistem akhir pekan yang berbeda, dan serangan mendadak tidak mungkin diprediksi
Semakin mudah lethal force digunakan, semakin banyak korban tak bersalah
Ada juga kasus Israel yang melacak lokasi pria dewasa lewat metadata WhatsApp untuk menyerang
Cara seperti ini tidak berbeda dari 20 tahun lalu, dan suatu hari bom seperti itu bisa saja jatuh ke rumah kita
Beberapa minggu lalu ada kejadian serupa
Saat AS dan Israel menyerang fasilitas kepolisian Iran, mereka malah mengebom taman di Teheran yang namanya memuat kata “Police” (Police Park)
Padahal itu hanya taman umum biasa
Video terkait, sumber tambahan
Jika Anda meminta AI untuk “daftarkan 100 fasilitas kepolisian di Teheran”, hasil seperti inilah yang akan keluar. Ada indikasi kuat AI dipakai dalam pemilihan target
Hal seperti ini terus berulang karena AS adalah negara yang bangkrut secara moral dan etis
Pemboman tempat perlindungan Amiriyah juga merupakan contohnya
Artikel itu pertama kali menyebut bahwa “Claude milik Anthropic menetapkan sekolah sebagai target”
Sampai sekarang, banyak laporan lebih menekankan bahwa penyebabnya adalah prosedur usang dan kesalahan intelijen, bukan penggunaan AI
Claude bisa dijalankan di Amazon Bedrock, dan dalam kasus itu modelnya berjalan di dalam data center pelanggan, bukan melalui API yang dioperasikan langsung oleh Anthropic
Vendor seperti Palantir bisa memilih model apa pun yang akan dipakai, dan mungkin saja mereka menggunakan Claude lewat Bedrock
Dalam kontrak seperti ini, Anthropic tidak memiliki akses telemetri, sehingga mereka tidak bisa membuktikan bagaimana model itu benar-benar digunakan
Pada akhirnya, pernyataan “Claude digunakan” secara teknis bisa benar atau bisa juga tidak, sebuah red herring
Perlu juga dicatat bahwa penulis artikel ini sebelumnya sudah membahas topik ini dalam [tulisan Substack]-nya(https://artificialbureaucracy.substack.com/p/kill-chain)
Apakah benar ada orang yang percaya ini kesalahan AI?
Di militer modern, LLM sering dipakai sebagai alat untuk menghindari tanggung jawab
Jika sasarannya jelas, seharusnya sudah ada daftar terdokumentasi yang siap digunakan
Tetapi sekarang pendekatannya seperti “jatuhkan bom sebanyak mungkin, dan komputer pasti akan mengurus sisanya”
Ini adalah kenyataan di mana pembunuhan didahulukan dibanding tujuan strategis
Isi artikelnya menarik
Kalimat “militer AS telah berusaha mempersempit jarak antara observasi dan penghancuran” memang terasa agak bias, tetapi tetap menunjukkan betapa pekatnya kabut perang (fog of war)
Beberapa paragraf awal justru terasa segar
Menarik melihat bahwa “AI-washing kini dipakai bukan hanya untuk PHK, tetapi juga untuk perang”
Dulu Tuhan, lalu alam, dan sekarang AI
Manusia punya persoalan mendasar berupa menghindari tanggung jawab atas tindakannya sendiri
Seluruh era industrialisasi dan komputer mungkin bisa dilihat sebagai upaya untuk menghapus tanggung jawab itu secara permanen
Pada akhirnya, dalam skenario apa pun, kejahatan perang AS tidak bisa dibenarkan
Kenyataan bahwa mereka bahkan tidak mampu meminta maaf dengan layak mungkin akan menjadi titik belok sejarah yang kelak kita lihat kembali