4 poin oleh GN⁺ 2026-02-27 | 1 komentar | Bagikan ke WhatsApp
  • Dua bidang, yaitu pengawasan domestik massal dan senjata otonom penuh, dikecualikan dari kontrak
  • Anthropic menjadikan pemanfaatan AI untuk pertahanan Amerika Serikat dan negara-negara demokratis sebagai misi inti, dan untuk itu bekerja sama dengan Departemen Pertahanan serta badan intelijen
  • Model Claude digunakan di jaringan rahasia, laboratorium nasional, dan lembaga keamanan nasional untuk menjalankan tugas seperti analisis intelijen, perencanaan operasi, dan operasi siber
  • Perusahaan melindungi keunggulan AI AS melalui langkah seperti menghentikan transaksi dengan perusahaan terkait Partai Komunis Tiongkok, memblokir serangan siber yang menyalahgunakan AI, dan mendukung penguatan kontrol ekspor semikonduktor
  • Namun, dua bidang yaitu pengawasan domestik massal dan senjata otonom penuh secara eksplisit dikecualikan karena nilai-nilai demokratis dan masalah keandalan teknologi
  • Anthropic menegaskan tetap mempertahankan safeguard ini meski ada tekanan dari Departemen Pertahanan, dan berharap kerja sama dapat berlanjut

Kerja sama pertahanan Anthropic dan penerapan AI

  • Anthropic adalah perusahaan pelopor yang pertama kali menerapkan model AI di jaringan rahasia pemerintah AS
    • Juga yang pertama menyediakan model kustom untuk laboratorium nasional dan pelanggan keamanan nasional
    • Model Claude digunakan oleh Departemen Pertahanan dan berbagai lembaga keamanan untuk analisis intelijen, pemodelan dan simulasi, perencanaan operasi, serta operasi siber
  • Perusahaan menampilkan contoh ketika mereka mengorbankan keuntungan jangka pendek demi mempertahankan keunggulan teknologi AI AS
    • Menghentikan transaksi dengan perusahaan terkait Partai Komunis Tiongkok dan melepaskan pendapatan ratusan juta dolar
    • Memblokir serangan siber dari Tiongkok yang menyalahgunakan Claude
    • Mendukung penguatan kontrol ekspor semikonduktor untuk mengamankan keunggulan teknologi blok demokratis

Dua pengecualian berdasarkan nilai demokratis dan keandalan teknologi

  • Anthropic secara eksplisit mengecualikan dua kasus penggunaan AI yang dapat merusak nilai-nilai demokratis
    • Pengawasan domestik massal: mendukung kegiatan intelijen luar negeri yang sah, tetapi pengawasan massal terhadap publik di dalam negeri bertentangan dengan prinsip demokrasi
      • Pengawasan berbasis AI dapat secara otomatis menggabungkan data pergerakan individu, penggunaan web, dan hubungan sosial sehingga memungkinkan pembuatan profil pribadi dalam skala besar
      • Hukum saat ini tidak mampu mengikuti kecepatan perkembangan teknologi, sehingga sebagian tindakan pengawasan masih tetap legal
    • Senjata otonom penuh: senjata yang mengidentifikasi dan menyerang target tanpa campur tangan manusia belum cukup andal dengan teknologi saat ini
      • Anthropic tidak menyediakan produk untuk senjata semacam itu
      • Perusahaan pernah mengajukan usulan kerja sama riset peningkatan keandalan dengan Departemen Pertahanan, tetapi tidak diterima
      • Anthropic menegaskan bahwa sistem tersebut saat ini tidak dapat diterapkan karena tidak adanya pengawasan dan safeguard yang memadai

Tuntutan Departemen Pertahanan dan respons Anthropic

  • Departemen Pertahanan meminta perusahaan AI untuk “menyetujui semua penggunaan yang legal” dan menghapus dua safeguard tersebut
    • Jika menolak, Anthropic diperingatkan dapat ditetapkan sebagai risiko rantai pasok (supply chain risk) atau dipaksa melalui Defense Production Act
    • Kedua langkah itu memiliki sifat yang saling bertentangan: yang satu menganggap Anthropic sebagai ancaman keamanan, yang lain menganggapnya sebagai teknologi penting bagi keamanan nasional
  • Meski mendapat tekanan tersebut, Anthropic dengan jelas menyatakan secara moral tidak dapat menerima tuntutan itu
    • Anthropic mengakui Departemen Pertahanan berhak memilih kontraktor lain, tetapi tetap berharap kerja sama berlanjut dengan dua safeguard ini tetap dipertahankan
    • Bahkan jika kontrak berakhir, perusahaan berjanji akan mendukung transisi yang lancar agar tidak mengganggu operasi atau perencanaan militer

Sikap ke depan

  • Anthropic menegaskan kembali komitmennya untuk mendukung keamanan nasional AS
  • Perusahaan ingin terus bekerja sama dengan Departemen Pertahanan, tetapi tetap mempertahankan prinsip nilai demokratis dan keselamatan teknologi tanpa kompromi

1 komentar

 
GN⁺ 2026-02-27
Komentar Hacker News
  • Bagian paling kuat dari tulisan ini adalah saat pemerintah memaksa Anthropic menghapus langkah-langkah keamanannya, sambil mengancam akan menetapkan mereka sebagai ‘risiko rantai pasok’
    Di satu sisi mereka disebut esensial bagi keamanan nasional, tetapi di sisi lain juga disebut sebagai faktor risiko—sikap yang kontradiktif
    Kesan saya kuat pada respons Anthropic yang pada dasarnya berkata, “kalau begitu pemerintah tidak perlu memakai layanan kami.” Ini memang strategi pesan, tetapi sekaligus melempar bola kembali ke pihak eksekutif

  • Saya dulu bekerja di Anthropic, dan saya punya komentar yang saya tulis soal pembaruan RSP ini
    Sangat mengesankan melihat para pemimpin Anthropic siap kehilangan posisi atau peluang demi mempertahankan nilai-nilai mereka
    Tokoh seperti Dario, Jared, dan Sam benar-benar serius sampai rela menanggung kerugian jika harus melakukan sesuatu yang bertentangan dengan keyakinan mereka
    Tentu ini bukan perusahaan yang sempurna, tetapi orang-orang yang mengambil keputusan penting sebagian besar bergerak dengan niat baik dan motivasi yang berpusat pada nilai

  • Saat membaca, saya sempat terhenti di kalimat “AI saat ini belum cukup andal untuk mengoperasikan senjata otonom penuh”
    Artinya, itu terdengar seperti masih menyisakan kemungkinan bahwa senjata otonom akan diterima jika sudah cukup andal
    Saya juga kecewa karena yang dikritik hanya ‘pengawasan massal domestik’, sementara ‘pengawasan otonom parsial’ atau ‘pengawasan di luar negeri’ tidak secara tegas ditolak
    Saya mengira nama ‘Anthropic’ berarti untuk seluruh umat manusia, tetapi pada akhirnya ini terlihat seperti kerangka ‘manusia kami vs manusia kalian’

    • Ini membuat saya bertanya-tanya apakah ucapan “Anthropic untuk manusia” benar-benar tulus
      Mirip seperti OpenAI yang “terbuka”, atau Korea Utara yang menyebut dirinya “republik rakyat”—nama dan kenyataan bisa berbeda
      Ini mengingatkan saya pada halaman satir People’s Republic of Tyranny
    • Menurut saya ungkapannya sudah tepat. Dario bukan orang yang berada pada posisi untuk berbicara secara pasti tentang masa depan
    • Suatu saat, ketika sistem sudah cukup andal, saya rasa senjata otonom penuh akan muncul di medan perang
      Yang dikatakan Anthropic hanya “sekarang belum bisa.” Nanti pembatasannya kemungkinan besar akan dilonggarkan
    • Saya membacanya bukan sebagai “kalau data latihnya cukup maka bisa,” melainkan kalau standar keandalannya terpenuhi maka bisa
      Hardware atau software umum pun punya batas keandalan, jadi itu sendiri tidak irasional
    • Yang menarik justru terasa kontradiktif ketika mereka bilang senjata otonom belum bisa dipercaya, tetapi penggantian pekerjaan white-collar justru dianggap sudah cukup bisa dipercaya
  • Karakter sejati sebuah organisasi terlihat saat nilai dan keuntungan saling berbenturan
    Sikap Anthropic yang berusaha memegang prinsip terasa mengesankan. Kebanyakan perusahaan mungkin tidak akan mengambil pilihan seperti ini

    • Tetapi keputusan seperti ini pada akhirnya tetap ada biayanya
      Bergantung pada sistem yang buruk karena alasan moral pada akhirnya tidak akan berhasil dalam jangka panjang
      Diperlukan mekanisme pengekang yang kuat terhadap perilaku buruk, tetapi rasanya sudah agak terlambat
  • Membaca ini benar-benar membuat saya murung. Saya tidak tahu Amerika sedang menuju ke mana
    Saya berharap pemilu berikutnya menghasilkan kepemimpinan yang rasional

    • Tetapi ini bukan sesuatu yang bisa diselesaikan hanya dengan satu pemilu. Ini butuh upaya lintas generasi
    • Harapan saja tidak cukup. Tanpa rencana konkret, tidak ada masa depan
    • Arah seperti ini sebenarnya bukan hal baru. Sejak 9/11, kita sudah melihat militerisasi polisi, serangan terhadap demokrasi, dan kebijakan luar negeri yang sepihak
    • Saya khawatir penyebaran AI yang serampangan akan makin memperburuk struktur sosial. Bisa jadi kita menghadapi masa yang lebih kacau daripada era media sosial
    • Selama Partai Demokrat lebih fokus pada isu pinggiran ketimbang isu utama, akan sulit bagi mereka menang dalam pemilu berikutnya
      Saya tinggal di San Francisco; para guru harus membeli perlengkapan sekolah lewat GoFundMe, sementara kota menghabiskan 36 juta dolar untuk menyingkirkan RV
      Artikel terkait menunjukkan betapa terdistorsinya realitas saat ini
  • Akar dari semua masalah ini adalah Kongres menyerahkan kewenangannya kepada eksekutif
    Militer harus dikendalikan oleh hukum, dan hanya tindakan warga yang bisa mengubah ini
    Tidak masuk akal jika perusahaan mengendalikan tindakan militer. Teknologi bisa saja disita secara paksa, dan perusahaan tidak bisa mencegahnya
    Fakta bahwa para CEO diperlakukan seperti pahlawan karena hal seperti ini menunjukkan betapa terdistorsinya pemahaman kita tentang realitas

    • Kalau dalam sistem mobilisasi masa perang mungkin bisa dimengerti, tetapi dalam negara demokratis pada masa damai, tindakan pemaksaan seperti ini tidak bisa diterima
  • Awalnya saya kecewa mendengar bahwa Anthropic, sambil mengusung slogan “AI untuk kemanusiaan”, juga menjual akses prioritas kepada Pentagon
    Tetapi jika memang harus ada pihak yang bekerja sama dengan kompleks industri militer, saya bisa memahami logika bahwa lebih baik itu dilakukan oleh pihak dengan standar moral paling tinggi

    • AI pada dasarnya adalah teknologi yang sangat cocok untuk militer dan pengawasan. AI menganalisis data dalam jumlah besar dan mengekstrak informasi yang berguna
      Pada akhirnya perusahaan memang ada untuk mencari laba
    • Perusahaan butuh pendapatan untuk bertahan hidup. Jika pengguna tidak membayar cukup, mereka akan mencari sumber pendapatan lain
      Selama ada investor dan pemegang saham, kelangsungan hidup akan didahulukan daripada moralitas
      Kemandirian sejati hanya mungkin dalam struktur yang tidak bergantung pada keuntungan
  • Saya pelanggan Claude Max, dan dalam kasus ini saya bangga melihat Anthropic tidak tunduk pada kekuasaan
    Semoga perusahaan-perusahaan lain juga mendapat keberanian dari sini

    • Tetapi sampai tingkat tertentu mereka sebenarnya sudah tunduk pada kekuasaan. Hanya saja setidaknya masih ada sedikit harga diri yang tersisa
  • Fakta bahwa istilah ‘Department of War’ dipakai apa adanya hanya karena Kongres belum pernah mengganti namanya. Selain itu, menurut saya ungkapannya baik-baik saja

    • Tidak perlu berdebat soal nama. Pada praktiknya, orang-orang yang memegang kekuasaan sendiri menyebutnya begitu
    • Saya justru merasa nama asli ‘Department of War’ lebih jelas menggambarkan fungsinya
      Kita terlalu sering memakai eufemisme untuk segala hal sampai tidak lagi melihat kenyataan sebagaimana adanya
    • Saya juga merasa nama itu lebih jujur. Itu menunjukkan dengan baik apa yang sebenarnya dilakukan, dan memaksa orang merenungkan maknanya
    • Mungkin ungkapan itu dipakai karena itulah istilah yang dipaksakan Hegseth. Kalau ditulis ‘DoD’, justru mungkin akan terasa lebih provokatif
    • Tetap saja, pilihan penamaan seperti ini memang ikut menentukan suasana tulisan
  • Saya menghargai Dario dan Anthropic karena mengambil posisi moral. Di industri teknologi sekarang ini, itu hal yang jarang dilihat

    • Bahkan tanpa menjadi optimis atau pesimis soal LLM, bahaya pengawasan dan senjata otonom sudah sangat jelas
      Fakta bahwa Dario tidak bertindak seperti Sam Altman atau Sundar Pichai adalah hal yang patut diapresiasi
    • Tetapi ada juga yang melihat ini hanya sebagai pertunjukan. Sekadar gestur yang datang terlambat dari para pencipta monster itu sendiri
    • Dari sudut pandang lain, ada yang merasa muak melihat kalimat pertama pernyataannya sudah berbunyi bahwa mereka akan “membela Amerika dan demokrasi dengan AI”
      Faktanya, Anthropic memang sudah mendistribusikan model untuk lembaga pertahanan dan intelijen
    • Ada juga yang mengkritik, “jadi memata-matai Kanada atau Jerman tidak masalah?” dan menilai dasar moralnya lemah
    • Pandangan yang lebih sinis mengatakan, “sekalipun sekarang tampak bermoral, setelah IPO pada akhirnya mereka akan tunduk pada logika keuntungan Wall Street dan dana investasi
      Pada akhirnya, di hadapan kontrak pemerintah bernilai miliaran dolar, tidak ada perusahaan yang benar-benar bisa tetap murni