5 poin oleh GN⁺ 2026-03-07 | 1 komentar | Bagikan ke WhatsApp
  • Departemen Perang AS menetapkan Anthropic sebagai faktor risiko rantai pasok terhadap keamanan nasional, dan perusahaan menilai langkah ini tidak sah secara hukum serta sedang menyiapkan langkah hukum
  • Surat dari Departemen Perang menyatakan bahwa cakupan pembatasan penggunaan model Claude sangat sempit, dan hanya berlaku untuk penggunaan oleh pelanggan yang terkait langsung dengan kontrak Departemen Perang
  • Hukum terkait (10 USC 3252) ada untuk melindungi pemerintah, dan Menteri Perang harus hanya menggunakan langkah yang paling membatasi seminimal mungkin
  • Anthropic sedang membahas kelanjutan kerja sama dan cara transisi yang lancar dengan Departemen Perang, sambil mempertahankan prinsip pengecualian terhadap senjata otonom dan pengawasan domestik skala besar
  • Perusahaan menegaskan akan terus mendukung agar militer AS yang sedang berperang dan para pakar keamanan tidak kehilangan alat yang mereka butuhkan, serta menekankan tujuan bersama dalam pemanfaatan AI untuk keamanan nasional

Penetapan risiko rantai pasok oleh Departemen Perang

  • Departemen Perang memberi tahu bahwa Anthropic diklasifikasikan sebagai risiko rantai pasok bagi keamanan nasional AS
    • Anthropic menilai langkah ini tidak sah secara hukum dan berencana menggugatnya di pengadilan
  • Menurut redaksi surat Departemen Perang, penetapan ini hanya berlaku bagi pelanggan yang menggunakan model Claude sebagai bagian langsung dari kontrak Departemen Perang
    • Meski memiliki kontrak dengan Departemen Perang, tidak ada pembatasan atas penggunaan Claude yang tidak terkait kontrak tersebut maupun transaksi dengan Anthropic

Dasar hukum dan cakupan penerapan

  • Tindakan Departemen Perang didasarkan pada pasal 10 USC 3252, yang mewajibkan penggunaan langkah pembatasan minimum untuk melindungi rantai pasok
    • Tujuan hukum ini adalah melindungi pemerintah, bukan menghukum pemasok
  • Karena itu, cakupan penetapan ini sangat terbatas, dan tidak berdampak pada pelanggan di luar kontraktor Departemen Perang

Kerja sama dengan Departemen Perang dan prinsip pengecualian

  • Anthropic dalam beberapa hari terakhir membahas cara melanjutkan kerja sama dan prosedur transisi dengan Departemen Perang
    • Perusahaan selama ini telah mendukung Departemen Perang di berbagai bidang seperti analisis intelijen, pemodelan dan simulasi, perencanaan operasi, serta operasi siber
  • Anthropic mempertahankan dua prinsip pengecualian terkait senjata otonom dan pengawasan domestik skala besar
    • Perusahaan menegaskan posisinya bahwa perusahaan swasta tidak boleh terlibat dalam keputusan operasi militer

Kebocoran unggahan internal

  • Perusahaan meminta maaf atas unggahan internal perusahaan yang bocor ke media sehari sebelumnya
    • Unggahan itu ditulis tepat setelah unggahan Presiden di Truth Social, unggahan Menteri Perang di X, dan pengumuman kontrak antara OpenAI dan Departemen Pertahanan
    • Anthropic menyatakan tidak membocorkan unggahan tersebut dan tidak berniat memperburuk situasi
    • Unggahan itu dibuat 6 hari lalu dan merupakan penilaian lama yang tidak mencerminkan situasi saat ini

Dukungan ke depan dan tujuan bersama

  • Anthropic berencana terus mendukung agar militer AS yang sedang berperang dan para pakar keamanan nasional dapat terus menggunakan alat yang mereka butuhkan
    • Perusahaan akan terus menyediakan model dan dukungan teknis dengan biaya nominal kepada Departemen Perang dan lembaga keamanan
  • Perusahaan menyatakan memiliki tujuan bersama dengan Departemen Perang, yaitu memperkuat keamanan AS dan memperluas pemanfaatan AI di pemerintahan
    • Semua keputusan ke depan akan dibuat berdasarkan premis bersama ini

1 komentar

 
GN⁺ 2026-03-07
Komentar Hacker News
  • Terkejut melihat seberapa jauh Overton window telah bergeser dalam isu ini
    Saat saya lulus pada 2007, cukup umum bagi perusahaan teknologi untuk menolak sistem mereka digunakan dalam perang, dan banyak teman yang juga menolak bekerja di perusahaan seperti itu karena alasan moral
    Namun sekarang Anthropic tampaknya hanya ingin membuat dua pengecualian, itu pun karena alasan praktis, bukan moral. Bahkan hal itu dibungkus dengan bahasa seolah-olah mereka sebenarnya ingin mendukung perang tetapi terpaksa tidak bisa. Dunia benar-benar sudah banyak berubah

    • Ini mengingatkan pada film pendek Jerman tahun 1969 Nicht löschbares Feuer (Inextinguishable Fire)
      Sebuah film anti-napalm yang menyindir situasi ketika para pekerja tidak sadar bahwa produk yang mereka buat sebenarnya adalah senjata
      Kalimat penutupnya, “Apa yang kita produksi bergantung pada pekerja, mahasiswa, dan insinyur,” masih relevan sampai sekarang
    • Di film Real Genius juga ada premis bahwa para mahasiswa tanpa sadar membuat senjata
      Dulu cerita seperti ini adalah bagian dari pendidikan etika, tetapi sekarang rasanya bahkan kelas-kelas seperti itu pun sudah menghilang
    • Dari dua pengecualian Anthropic, hanya satu yang didasarkan pada alasan moral
      Mereka menolak hanya karena teknologi senjata otonom mematikan belum cukup maju, jadi ada catatan tersirat “belum untuk saat ini”
      Memang lebih baik daripada OpenAI, tetapi pada akhirnya tetap hanya “pilihan yang lebih tidak buruk”
    • Setelah melihat kesedihan para siswa SMA akibat tragedi MH17, pandangan saya tentang litbang terkait perang menjadi lebih rumit
      Ada realitas bahwa riset pertahanan memang dibutuhkan, tetapi sistem pengambilan keputusan otomatis menjadi berbahaya jika keluar dari kendali manusia
      Saya pikir kewajiban ‘human-in-the-loop’ perlu diatur secara hukum
    • Sikap terhadap perang berubah sesuai konteks zamannya
      ‘Perang’ pada 2007 adalah Irak, sedangkan ‘perang’ saat ini mencakup Gaza, Iran, Venezuela, serta kemungkinan invasi ke Ukraina atau Taiwan
      Saya kira orang-orang di dalam Anthropic juga mempertimbangkan konteks seperti ini
  • Saat kuliah saya punya teman yang ingin bekerja di DARPA, dan ketika saya tanya soal sudut pandang etikanya, dia menjawab, “Itu bukan urusan saya”
    Selama belajar di AS, saya merasa baik para eksekutif industri maupun universitas sama-sama tidak peduli pada berpikir kritis dan pendidikan etika, dan lebih fokus membentuk orang menjadi sekadar alat teknis
    Bahkan di VR Innovation Week Harvard, hampir tidak ada pendiri startup atau pengembang yang hadir di sesi ‘etika dan hukum’. Diskusi soal dampak sosial benar-benar disingkirkan
    Pada akhirnya saya merasa kegilaan mengejar uang telah meruntuhkan kemampuan masyarakat untuk berpikir

    • Bekerja di industri AdTech membuat saya sadar bahwa kode iklan yang saya buat bisa dipakai untuk manipulasi pemilu, anti-vaksin, atau iklan penipuan
      Jika akhirnya seseorang mati akibat itu, saya merasa saya juga ikut bertanggung jawab
      Namun masalahnya, secara realistis sulit menjaga garis moral ketika harus bertahan hidup. Pada akhirnya kita semua berada di kapal yang sama
    • Saya melihat mati rasa etis seperti ini berkaitan dengan kemunduran humaniora
      Dalam tulisan George Orwell (tautan) juga disebutkan bahwa pendidikan sains saja tidak cukup menjamin sudut pandang yang manusiawi
    • Pernyataan bahwa “pendiri startup atau CEO tidak punya kapasitas untuk ikut dalam diskusi etika” terdengar seperti kesombongan meritokratis
    • Ini mengingatkan pada ucapan von Braun: “Di mana roket jatuh bukan urusan departemen saya”
    • Demam AI dalam beberapa tahun terakhir benar-benar menghancurkan kepercayaan saya pada kemanusiaan. Keserakahan menyebar seperti udara
  • Saya terkejut melihat kalimat “Anthropic memiliki lebih banyak kesamaan dengan Department of Defense daripada perbedaannya”

    • Setelah bom atom, alasan ‘War Department’ diubah menjadi ‘Defense Department’ adalah karena umat manusia menyadari beban dari ciptaannya sendiri
      Tetapi sekarang membicarakan AI alignment dalam konteks yang sejajar dengan ‘alignment dengan Department of War’ terasa tidak layak secara intelektual
      Tidak ada satu pun negara yang diserang tahun ini yang menjadi ancaman eksistensial bagi umat manusia. Justru perang seperti inilah yang memperbesar risiko inti
      Saya heran mengapa tidak lebih banyak peneliti yang bersuara menentangnya
    • Kalimat itu jadi lebih jelas jika dimaknai sebagai “kita menginginkan massa yang patuh”
    • Saya membaca seluruh tulisannya dan saking terkejutnya sampai rasanya alis saya hilang
    • Dari luar AS, seluruh proses ini terasa mengerikan
      Ada kemungkinan besar AI untuk tujuan militer akan dinasionalisasi, dan kontradiktif bahwa Anthropic menyebut teknologinya lebih berbahaya daripada bom atom sambil tetap bekerja sama secara militer dengan Palantir
    • Jika melihat aktivitas di Venezuela dan Iran, kata ‘Defense’ mungkin justru ungkapan yang paling tidak Orwellian yang tersedia
  • Saya jadi bertanya-tanya setelah melihat pernyataan Anthropic tentang “warfighter”
    Apakah benar hanya dengan dua pengecualian ini mereka bisa menjaga batas etis?

    • Kata ‘warfighter’ sendiri terasa aneh. Dulu orang menyebut ‘servicemen’, sekarang seolah ingin menekankan citra agresif
    • Meskipun tidak sempurna, saya pikir tetap ada artinya memindahkan uang ke pilihan yang sedikit lebih etis
    • Sebenarnya tidak ada ‘pihak baik’ dalam cerita ini. Kedua perusahaan sama-sama bertujuan mencari untung dan hanya membungkus citra lewat PR
      Anthropic terlihat seperti pihak yang ‘lebih baik’ dalam kasus ini, tetapi tetap menghasilkan uang dari industri perang
    • Pada akhirnya ini cuma strategi pemasaran, dan tampaknya memang berhasil
    • Sebuah langkah PR yang bagus
  • Tidak ada istilah yang lebih menggambarkan kenyataan Amerika 2026 yang Orwellian selain kata “warfighter”

    • Istilah itu sendiri sebenarnya sudah dipakai lebih dari 20 tahun. Justru nama DoD sebagai istilah ala Newspeak terasa lebih Orwellian
    • Ini mengingatkan saya pada kutipan Tao Te Ching bab 46: “Ketika Tao dijalankan, kuda perang membajak ladang; ketika Tao tidak dijalankan, kuda perang berkembang biak di perbatasan”
    • Ucapan politisi bahwa “kita tidak sedang berperang dengan Iran” terdengar hampa
    • Trump menyebut pejabat baru sebagai ‘pejuang MAGA’, dan itu terasa sejalan dengan konteks yang sama
  • Mengutip tulisan Techdirt oleh Mike Masnick
    Dalam pemerintahan sebelumnya, posisi “kami ingin AI tidak membuat keputusan membunuh tanpa campur tangan manusia” akan dianggap syarat negosiasi yang biasa
    Tetapi sekarang menteri pertahanan secara terbuka menuduh perusahaan sebagai ‘pengkhianat’, presiden memerintahkan semua lembaga pemerintah untuk menghentikan penggunaannya, dan CEO harus menulis surat permintaan maaf yang terasa seperti ‘surat sandera’

  • Jika kekuasaan dan korupsi pemerintah tidak dikendalikan, perusahaan pada akhirnya akan membuat kesepakatan seperti ini
    Awalnya dimulai dari uang dan patriotisme, tetapi lama-lama mereka terlibat dalam hal-hal yang tak bisa ditarik kembali, dan makin sulit untuk keluar
    CEO baru lalu datang dan berkata, “pendahulu saya lemah, saya akan berbeda,” lalu mengulang siklus buruk yang sama

  • Kepada orang-orang yang ingin menyediakan teknologi untuk industri perang, saya ingin mengatakan ini
    “Semuanya bisa dirampas, tetapi hati nurani tidak akan hilang kecuali Anda sendiri yang menyerahkannya”

    • Industri pertahanan tidak selalu membayar lebih tinggi dibanding industri teknologi pada umumnya
      Banyak dari mereka bekerja karena keyakinan bahwa mereka sedang membantu pemerintah
  • Saya sangat tertarik melihat bagaimana kasus ini akan berakhir di pengadilan dan pengadilan opini publik
    Saya pikir ini kasus yang penting, dan saya berharap hasilnya benar

  • Wakil menteri War Department Emil Michael menyatakan secara resmi bahwa “tidak ada negosiasi dengan Anthropic”

    • Sikap yang baru-baru ini ia sampaikan juga layak dibaca
      Dibahas lebih rinci dalam wawancara a16z news