- Departemen Perang AS menetapkan Anthropic sebagai faktor risiko rantai pasok terhadap keamanan nasional, dan perusahaan menilai langkah ini tidak sah secara hukum serta sedang menyiapkan langkah hukum
- Surat dari Departemen Perang menyatakan bahwa cakupan pembatasan penggunaan model Claude sangat sempit, dan hanya berlaku untuk penggunaan oleh pelanggan yang terkait langsung dengan kontrak Departemen Perang
- Hukum terkait (10 USC 3252) ada untuk melindungi pemerintah, dan Menteri Perang harus hanya menggunakan langkah yang paling membatasi seminimal mungkin
- Anthropic sedang membahas kelanjutan kerja sama dan cara transisi yang lancar dengan Departemen Perang, sambil mempertahankan prinsip pengecualian terhadap senjata otonom dan pengawasan domestik skala besar
- Perusahaan menegaskan akan terus mendukung agar militer AS yang sedang berperang dan para pakar keamanan tidak kehilangan alat yang mereka butuhkan, serta menekankan tujuan bersama dalam pemanfaatan AI untuk keamanan nasional
Penetapan risiko rantai pasok oleh Departemen Perang
- Departemen Perang memberi tahu bahwa Anthropic diklasifikasikan sebagai risiko rantai pasok bagi keamanan nasional AS
- Anthropic menilai langkah ini tidak sah secara hukum dan berencana menggugatnya di pengadilan
- Menurut redaksi surat Departemen Perang, penetapan ini hanya berlaku bagi pelanggan yang menggunakan model Claude sebagai bagian langsung dari kontrak Departemen Perang
- Meski memiliki kontrak dengan Departemen Perang, tidak ada pembatasan atas penggunaan Claude yang tidak terkait kontrak tersebut maupun transaksi dengan Anthropic
Dasar hukum dan cakupan penerapan
- Tindakan Departemen Perang didasarkan pada pasal 10 USC 3252, yang mewajibkan penggunaan langkah pembatasan minimum untuk melindungi rantai pasok
- Tujuan hukum ini adalah melindungi pemerintah, bukan menghukum pemasok
- Karena itu, cakupan penetapan ini sangat terbatas, dan tidak berdampak pada pelanggan di luar kontraktor Departemen Perang
Kerja sama dengan Departemen Perang dan prinsip pengecualian
- Anthropic dalam beberapa hari terakhir membahas cara melanjutkan kerja sama dan prosedur transisi dengan Departemen Perang
- Perusahaan selama ini telah mendukung Departemen Perang di berbagai bidang seperti analisis intelijen, pemodelan dan simulasi, perencanaan operasi, serta operasi siber
- Anthropic mempertahankan dua prinsip pengecualian terkait senjata otonom dan pengawasan domestik skala besar
- Perusahaan menegaskan posisinya bahwa perusahaan swasta tidak boleh terlibat dalam keputusan operasi militer
Kebocoran unggahan internal
- Perusahaan meminta maaf atas unggahan internal perusahaan yang bocor ke media sehari sebelumnya
- Unggahan itu ditulis tepat setelah unggahan Presiden di Truth Social, unggahan Menteri Perang di X, dan pengumuman kontrak antara OpenAI dan Departemen Pertahanan
- Anthropic menyatakan tidak membocorkan unggahan tersebut dan tidak berniat memperburuk situasi
- Unggahan itu dibuat 6 hari lalu dan merupakan penilaian lama yang tidak mencerminkan situasi saat ini
Dukungan ke depan dan tujuan bersama
- Anthropic berencana terus mendukung agar militer AS yang sedang berperang dan para pakar keamanan nasional dapat terus menggunakan alat yang mereka butuhkan
- Perusahaan akan terus menyediakan model dan dukungan teknis dengan biaya nominal kepada Departemen Perang dan lembaga keamanan
- Perusahaan menyatakan memiliki tujuan bersama dengan Departemen Perang, yaitu memperkuat keamanan AS dan memperluas pemanfaatan AI di pemerintahan
- Semua keputusan ke depan akan dibuat berdasarkan premis bersama ini
1 komentar
Komentar Hacker News
Terkejut melihat seberapa jauh Overton window telah bergeser dalam isu ini
Saat saya lulus pada 2007, cukup umum bagi perusahaan teknologi untuk menolak sistem mereka digunakan dalam perang, dan banyak teman yang juga menolak bekerja di perusahaan seperti itu karena alasan moral
Namun sekarang Anthropic tampaknya hanya ingin membuat dua pengecualian, itu pun karena alasan praktis, bukan moral. Bahkan hal itu dibungkus dengan bahasa seolah-olah mereka sebenarnya ingin mendukung perang tetapi terpaksa tidak bisa. Dunia benar-benar sudah banyak berubah
Sebuah film anti-napalm yang menyindir situasi ketika para pekerja tidak sadar bahwa produk yang mereka buat sebenarnya adalah senjata
Kalimat penutupnya, “Apa yang kita produksi bergantung pada pekerja, mahasiswa, dan insinyur,” masih relevan sampai sekarang
Dulu cerita seperti ini adalah bagian dari pendidikan etika, tetapi sekarang rasanya bahkan kelas-kelas seperti itu pun sudah menghilang
Mereka menolak hanya karena teknologi senjata otonom mematikan belum cukup maju, jadi ada catatan tersirat “belum untuk saat ini”
Memang lebih baik daripada OpenAI, tetapi pada akhirnya tetap hanya “pilihan yang lebih tidak buruk”
Ada realitas bahwa riset pertahanan memang dibutuhkan, tetapi sistem pengambilan keputusan otomatis menjadi berbahaya jika keluar dari kendali manusia
Saya pikir kewajiban ‘human-in-the-loop’ perlu diatur secara hukum
‘Perang’ pada 2007 adalah Irak, sedangkan ‘perang’ saat ini mencakup Gaza, Iran, Venezuela, serta kemungkinan invasi ke Ukraina atau Taiwan
Saya kira orang-orang di dalam Anthropic juga mempertimbangkan konteks seperti ini
Saat kuliah saya punya teman yang ingin bekerja di DARPA, dan ketika saya tanya soal sudut pandang etikanya, dia menjawab, “Itu bukan urusan saya”
Selama belajar di AS, saya merasa baik para eksekutif industri maupun universitas sama-sama tidak peduli pada berpikir kritis dan pendidikan etika, dan lebih fokus membentuk orang menjadi sekadar alat teknis
Bahkan di VR Innovation Week Harvard, hampir tidak ada pendiri startup atau pengembang yang hadir di sesi ‘etika dan hukum’. Diskusi soal dampak sosial benar-benar disingkirkan
Pada akhirnya saya merasa kegilaan mengejar uang telah meruntuhkan kemampuan masyarakat untuk berpikir
Jika akhirnya seseorang mati akibat itu, saya merasa saya juga ikut bertanggung jawab
Namun masalahnya, secara realistis sulit menjaga garis moral ketika harus bertahan hidup. Pada akhirnya kita semua berada di kapal yang sama
Dalam tulisan George Orwell (tautan) juga disebutkan bahwa pendidikan sains saja tidak cukup menjamin sudut pandang yang manusiawi
Saya terkejut melihat kalimat “Anthropic memiliki lebih banyak kesamaan dengan Department of Defense daripada perbedaannya”
Tetapi sekarang membicarakan AI alignment dalam konteks yang sejajar dengan ‘alignment dengan Department of War’ terasa tidak layak secara intelektual
Tidak ada satu pun negara yang diserang tahun ini yang menjadi ancaman eksistensial bagi umat manusia. Justru perang seperti inilah yang memperbesar risiko inti
Saya heran mengapa tidak lebih banyak peneliti yang bersuara menentangnya
Ada kemungkinan besar AI untuk tujuan militer akan dinasionalisasi, dan kontradiktif bahwa Anthropic menyebut teknologinya lebih berbahaya daripada bom atom sambil tetap bekerja sama secara militer dengan Palantir
Saya jadi bertanya-tanya setelah melihat pernyataan Anthropic tentang “warfighter”
Apakah benar hanya dengan dua pengecualian ini mereka bisa menjaga batas etis?
Anthropic terlihat seperti pihak yang ‘lebih baik’ dalam kasus ini, tetapi tetap menghasilkan uang dari industri perang
Tidak ada istilah yang lebih menggambarkan kenyataan Amerika 2026 yang Orwellian selain kata “warfighter”
Mengutip tulisan Techdirt oleh Mike Masnick
Dalam pemerintahan sebelumnya, posisi “kami ingin AI tidak membuat keputusan membunuh tanpa campur tangan manusia” akan dianggap syarat negosiasi yang biasa
Tetapi sekarang menteri pertahanan secara terbuka menuduh perusahaan sebagai ‘pengkhianat’, presiden memerintahkan semua lembaga pemerintah untuk menghentikan penggunaannya, dan CEO harus menulis surat permintaan maaf yang terasa seperti ‘surat sandera’
Jika kekuasaan dan korupsi pemerintah tidak dikendalikan, perusahaan pada akhirnya akan membuat kesepakatan seperti ini
Awalnya dimulai dari uang dan patriotisme, tetapi lama-lama mereka terlibat dalam hal-hal yang tak bisa ditarik kembali, dan makin sulit untuk keluar
CEO baru lalu datang dan berkata, “pendahulu saya lemah, saya akan berbeda,” lalu mengulang siklus buruk yang sama
Kepada orang-orang yang ingin menyediakan teknologi untuk industri perang, saya ingin mengatakan ini
“Semuanya bisa dirampas, tetapi hati nurani tidak akan hilang kecuali Anda sendiri yang menyerahkannya”
Banyak dari mereka bekerja karena keyakinan bahwa mereka sedang membantu pemerintah
Saya sangat tertarik melihat bagaimana kasus ini akan berakhir di pengadilan dan pengadilan opini publik
Saya pikir ini kasus yang penting, dan saya berharap hasilnya benar
Wakil menteri War Department Emil Michael menyatakan secara resmi bahwa “tidak ada negosiasi dengan Anthropic”
Dibahas lebih rinci dalam wawancara a16z news