1 poin oleh GN⁺ 2026-03-01 | 5 komentar | Bagikan ke WhatsApp
  • OpenAI telah menandatangani kontrak untuk menerapkan sistem AI canggih di lingkungan rahasia bersama Department of War, dan meminta agar hal ini berlaku sama untuk semua perusahaan AI
  • OpenAI menyatakan kontrak tersebut mencakup lebih banyak pagar pengaman keselamatan dibanding penerapan AI rahasia yang sudah ada
  • OpenAI menegaskan garis merah bahwa teknologinya tidak akan digunakan untuk pengawasan domestik skala besar, komando senjata otonom, dan pengambilan keputusan otomatis berisiko tinggi
  • Tetap mempertahankan keleluasaan penuh atas safety stack, penerapan berbasis cloud, keterlibatan personel berizin keamanan, serta perlindungan kontraktual yang kuat
  • OpenAI dengan jelas menyampaikan kepada Department of War bahwa Anthropic tidak boleh ditetapkan sebagai risiko rantai pasok

Menandatangani kontrak dengan Department of War

  • OpenAI menandatangani kontrak dengan Department of War untuk menerapkan sistem AI canggih di lingkungan rahasia
    • OpenAI meminta agar penerapan tersebut diberikan secara setara kepada semua perusahaan AI
  • OpenAI menyatakan bahwa kontrak kali ini mencakup lebih banyak perlindungan keselamatan dibanding kontrak penerapan AI rahasia sebelumnya

Mempertahankan garis merah

  • Teknologi OpenAI tidak digunakan untuk pengawasan domestik skala besar
  • Teknologi OpenAI tidak digunakan untuk komando sistem senjata otonom
  • Teknologi OpenAI tidak digunakan untuk sistem pengambilan keputusan otomatis berisiko tinggi (misalnya: social credit)

Struktur perlindungan keselamatan berlapis

  • Berbeda dengan beberapa laboratorium AI yang dalam penerapan keamanan nasional mengurangi atau menghapus perlindungan yang berpusat pada kebijakan penggunaan
  • OpenAI menerapkan pendekatan berlapis yang diperluas
    • Mempertahankan keleluasaan penuh atas safety stack
    • Mempertahankan metode penerapan berbasis cloud
    • Struktur yang melibatkan personel OpenAI dengan izin keamanan
    • Mencakup perlindungan kontraktual yang kuat
    • Berjalan bersamaan dengan perlindungan yang sudah ada dalam hukum AS

Sikap terhadap Anthropic

  • Menyatakan penolakan terhadap penetapan Anthropic sebagai risiko rantai pasok
  • Sikap tersebut telah disampaikan dengan jelas kepada Department of War

5 komentar

 
kayws426 2026-03-01

Sepertinya perlu ada rangkuman linimasa terkait hal ini. Ada juga yang mengatakan OpenAI sedang dalam proses negosiasi kontrak, bukan?

 
kentakang 2026-03-01

Ini pertama kalinya saya melihat kesalahan ringkasan yang mengatakan tidak ada isi..

 
xguru 2026-03-01

Sepertinya ada kasus seperti itu karena x jadi agak sulit untuk di-crawl. Akan kami perbaiki.

 
kentakang 2026-03-01

Saya selalu mengikuti dengan baik, terima kasih.

 
GN⁺ 2026-03-01
Komentar Hacker News
  • Intinya adalah perbedaan antara bunyi sebenarnya dalam kontrak OpenAI dan apa yang dikatakan Altman
    Di kontrak tertulis, “tidak digunakan untuk pengoperasian senjata otonom jika hukum atau kebijakan mewajibkan kendali manusia”
    Artinya, jika Departemen Pertahanan menetapkan bahwa “kendali manusia tidak diperlukan”, maka itu tetap dimungkinkan
    Anthropic menetapkan larangan mutlak berupa “pengawasan massal sama sekali tidak boleh”, sedangkan OpenAI melonggarkannya menjadi semacam “boleh jika diizinkan hukum”
    Menandatangani kontrak seperti itu lalu berpura-pura membela Anthropic tampak seperti aksi PR yang jarang terlihat bahkan di industri ini

    • Menurut saya, perilaku Altman seperti ini adalah pola khas yang juga terlihat saat kasus pemecatannya dulu
    • Mereka menyebutnya seperti “pengawasan massal terhadap warga AS dilarang”, tetapi pada akhirnya tetap terlalu terbuka untuk ditafsirkan
  • Dalam thread X, OpenAI mengklaim bahwa “kontrak dengan Departemen Pertahanan menjaga redline kami”
    Namun menurut artikel NPR, Anthropic justru dikeluarkan dari kontrak karena mempertahankan standar yang sama, sementara OpenAI mengambil uangnya

    • Anthropic mengambil keputusan etis untuk “tidak melewati garis ini”, sedangkan OpenAI bertindak seolah berkata “biar Departemen Pertahanan yang mengurusnya”
      Itulah sebabnya mereka mendapatkan kontraknya
    • Anthropic ingin memasukkan klausul pembatasan ke kontrak, tetapi OpenAI berargumen “guardrail internal kami sudah cukup”
      Namun apakah guardrail itu bisa mencegah pengawasan warga sipil masih diragukan
    • Jika melihat posting resmi OpenAI, redline-nya tidak selaras dengan milik Anthropic
    • Ada kemungkinan pemerintah mengecualikan Anthropic semata karena alasan pembalasan
    • Altman adalah sosok tanpa hati nurani, dan menurut saya tidak ada alasan untuk mempercayai kata-katanya
  • Masalah dengan klausul “Any Lawful Use” adalah bahwa Departemen Pertahanan bisa menentukan definisi ‘sah’ sesuka hati
    Jika pengacara internal menulis satu memo, itu langsung menjadi sah

    • Jika ada yang mengira masalah hukum pasca-9/11 hilang begitu saja karena munculnya LLM, itu naif
      Penyalahgunaan wewenang pemerintah harus diperbaiki lewat pemungutan suara dan reformasi institusi
    • Hal seperti ini memang sering terjadi (contohnya memo legalisasi penyiksaan oleh John Yoo)
      Sistemnya tidak dirancang seperti itu, tetapi kenyataannya berbeda
    • Hal-hal seperti ini umumnya berjalan secara rahasia, dan bahkan setelah terungkap pun pelakunya dibebaskan dengan label “patriot”
    • Pada akhirnya, beberapa tahun kemudian keluar satu laporan investigasi lalu semua orang melupakan, skenario berulang yang sama
    • Bahkan jika dipersoalkan secara hukum, mereka bisa berlindung di balik undang-undang seperti Patriot Act
  • Pada akhirnya, “Department of War” yang baru diberi nama itu hanya akan memboroskan pajak dan membeli teknologi tak berguna dengan harga mahal
    Saya merasa kasihan pada warga

  • Perbedaan Anthropic dan OpenAI adalah, Anthropic berusaha memaksakan pembatasan secara teknis sedangkan OpenAI hanya berjanji lewat kata-kata bahwa “semoga pemerintah tidak melanggarnya”
    Wajar jika pemerintah memilih yang kedua

    • Jika melihat teks lengkap kontrak OpenAI, frasa “untuk semua tujuan yang sah” adalah kuncinya
      Dengan kata lain, itu menyisakan ruang bahwa “jika sah, maka pengawasan massal atau senjata pembunuh otonom pun dimungkinkan”
    • OpenAI ingin membatasi hanya dalam lingkup hukum yang dibuat pemerintah, sedangkan Anthropic ingin menarik garis berdasarkan standar internal mereka sendiri
    • Dalam praktiknya, OpenAI tidak menuntut jaminan nyata apa pun, dan Altman tampak hanya setia pada kerakusan
  • AI yang mengambil keputusan pembunuhan otonom adalah gagasan yang sangat berbahaya
    Bukan hanya karena superintelijensi, tetapi karena dengan model kecil pun siapa saja bisa membuat senjata yang tidak dapat dilacak
    Model saat ini memang dilatih dengan sikap positif terhadap kehidupan manusia, tetapi jika itu dihilangkan, hasilnya menjadi sistem yang mengerikan

    • Namun LLM tidak bisa ‘memahami’ atau ‘menghargai’ kehidupan manusia
      Ia hanyalah prediktor token probabilistik
    • Faktanya, sejak 20 tahun lalu pun AI sudah terlibat dalam keputusan pembunuhan
      Misalnya, program membuat daftar target pembunuhan lalu manusia mengendalikan drone
    • Menipu model agar mengeluarkan perintah pembunuhan juga mudah dilakukan
    • Gagasan bahwa LLM menghormati kehidupan hanyalah ilusi
  • Orang-orang tampaknya lupa bahwa Anthropic pernah bekerja sama dengan Palantir
    Setelah fakta itu terungkap, mereka hanya menutupinya dengan PR

    • Klaim seperti ini sulit dipercaya karena tampak seperti tulisan propaganda
    • Saya memahami bahwa model Anthropic milik Palantir digunakan dalam sistem tertutup untuk lapangan militer
    • Tampaknya ada yang tidak benar-benar memahami apa yang sebenarnya dilakukan Palantir
  • Sepertinya OpenAI memposting ini untuk manajemen citra karena mereka sedang kehilangan pelanggan akibat kontroversi ini

  • Anthropic menginginkan penguatan regulasi AI oleh pemerintah, dan pada akhirnya mereka sendiri yang terkena dampaknya

  • Kejadian ini tampak seperti respons PR dari OpenAI karena mereka sadar akan kritik bahwa standar etikanya lemah

    • Masalah pada kedua perusahaan adalah bahwa standar etika mereka hanya berlaku di dalam perbatasan
      Di luar negeri, pemanfaatan yang tidak etis tetap dimungkinkan