- CEO OpenAI Sam Altman mengumumkan bahwa mereka telah mencapai kesepakatan untuk menerapkan model di jaringan rahasia bersama Departemen Pertahanan AS (DoD)
- Kesepakatan ini mencakup prinsip larangan pengawasan domestik berskala besar dan tanggung jawab manusia atas penggunaan kekuatan, termasuk dalam sistem senjata otonom, dan Departemen Pertahanan juga menyetujui prinsip tersebut
- Syaratnya mencakup pembangunan pengaman teknis agar model bekerja sesuai tujuan, penerapan hanya di jaringan cloud, serta penempatan FDE (Field Deployment Engineer)
- OpenAI meminta agar Departemen Pertahanan menawarkan syarat yang sama kepada semua perusahaan AI, dengan pandangan bahwa syarat ini dapat diterima oleh semua perusahaan
- Mereka menyatakan harapan kuat untuk meredakan situasi melalui kesepakatan yang masuk akal alih-alih melalui langkah hukum atau pemerintah
Isi kesepakatan
- OpenAI menandatangani kesepakatan untuk menerapkan model di jaringan rahasia milik Departemen Pertahanan
- Dalam proses negosiasi, Departemen Pertahanan dinilai menunjukkan penghormatan mendalam terhadap keselamatan dan kemauan untuk bermitra demi hasil terbaik
Prinsip keselamatan
- Keselamatan AI dan distribusi manfaat yang luas merupakan inti dari misi OpenAI
- Dua prinsip keselamatan utama yang tercakup dalam kesepakatan:
- Larangan pengawasan domestik berskala besar
- Tanggung jawab manusia atas penggunaan kekuatan, termasuk sistem senjata otonom
- Departemen Pertahanan juga menyetujui prinsip ini, serta mencerminkannya dalam hukum dan kebijakan dan menuliskannya dalam perjanjian
Pengaman teknis dan syarat penerapan
- OpenAI akan membangun pengaman teknis (technical safeguards) agar model bekerja sesuai tujuan, yang juga diinginkan oleh Departemen Pertahanan
- Untuk mendukung model dan menjamin keselamatan, mereka akan menempatkan FDE (Field Deployment Engineer)
- Syaratnya adalah penerapan hanya di jaringan cloud
Permintaan perluasan ke seluruh industri
- OpenAI meminta Departemen Pertahanan untuk menawarkan syarat yang sama kepada semua perusahaan AI
- Mereka berpandangan bahwa ini adalah syarat yang dapat diterima (
willing to accept) oleh semua perusahaan
- Mereka juga menyatakan harapan kuat untuk meredakan situasi melalui kesepakatan yang masuk akal alih-alih lewat tindakan hukum atau pemerintah
3 komentar
Pada akhirnya, Departemen Pertahanan AS meninggalkan Anthropic dan memilih OpenAI, tetapi memang ada perbedaan dalam cara pengungkapannya.
OpenAI juga menawarkan mekanisme implementasi yang konkret seperti pembangunan pengaman teknis, penempatan FDE (engineer lapangan), dan deployment khusus cloud
Anthropic meminta klausul pengecualian setingkat syarat layanan
Dari sudut pandang Departemen Pertahanan AS, ini tampaknya dipandang sebagai "perusahaan swasta menjalankan hak veto atas use case individual", lalu diumumkan dengan nada seolah memberi hukuman.
Kesepakatan ini diumumkan tidak lama setelah Anthropic ditetapkan sebagai risiko rantai pasok,
dan jika melihat artikel Axios, Departemen Pertahanan memanfaatkan konfrontasinya dengan Anthropic untuk mengatur tone dalam negosiasi dengan perusahaan AI lain,
sementara OpenAI pada akhirnya berhasil mendorong kesepakatan dalam bentuk yang bisa diterima Departemen Pertahanan di bawah tekanan tersebut
Perbedaan dalam ungkapan sikap resminya juga besar.
Sam Altman mengatakan "Departemen Pertahanan menunjukkan penghormatan yang mendalam terhadap keselamatan",
sementara pihak Anthropic sampai akhir mempertahankan nada "kami secara nurani tidak bisa menyetujui tuntutan Departemen Pertahanan"
Bahkan dengan prinsip yang sama, tampaknya perbedaan besarnya adalah apakah mereka menjaga muka Departemen Pertahanan atau tidak,
dan pada akhirnya karena OpenAI menerima syarat itu sehingga situasinya jadi canggung,
Sam Altman tampaknya menambahkan di bagian akhir, "tolong tawarkan syarat ini secara sama kepada semua perusahaan AI",
sebagai pesan tidak langsung agar langkah terhadap Anthropic dilonggarkan.
Bahkan untuk kontrak dengan tingkat yang sama, rasa percaya atau citranya terasa sangat berbeda. Sepertinya aku harus membatalkan langganan GPT.
Komentar Hacker News
Jika OpenAI juga berpegang pada syarat yang diminta Anthropic, pemerintah kemungkinan tidak akan menyetujui kontrak ini
Pada akhirnya, ini hanya bisa dilihat sebagai kesepahaman implisit bahwa OpenAI pada praktiknya tidak akan menegakkan garis batas tersebut
Orang-orang yang tersisa sekarang tampaknya kebanyakan bertahan karena saham
Disebutkan ada “larangan pengawasan massal domestik” dan “tanggung jawab manusia atas penggunaan kekuatan”, dan dikatakan DoW(Department of War) juga menyetujuinya
Menghamburkan modal politik lalu membuat kesepakatan yang lebih buruk memang cara mereka
OpenAI mungkin mengajukan syarat yang sama seperti Anthropic, tetapi pemerintah bisa saja menutup mata berkat dana lobi atau efek PR
Saya juga menghapus ChatGPT, membatalkan langganan, dan memutuskan untuk lebih mendukung Anthropic
Saya merasa sikap yang berprinsip itu penting, dan sekarang saya tidak lagi percaya pada OpenAI
Sisa rasa hormat saya pada Sam Altman juga hilang, dan saya muak dengan realitas AI yang tercemar oleh keserakahan manusia
Idealisme saat OpenAI bermula sebagai organisasi nirlaba sudah benar-benar hilang
Semua orang sebaiknya membatalkan langganan dan mengenakan pajak berat pada perusahaan dan CEO seperti ini
Dari kualitas produknya saja terasa bahwa OpenAI tidak lagi seperti dulu
Saya akan melihat pilihan apa yang diambil Google
Ungkapan seperti “tanggung jawab manusia atas penggunaan kekuatan” yang dia ucapkan terdengar seperti pernyataan mengelak
Pada akhirnya, itu berarti senjata otonom mematikan tetap dimungkinkan
Bahkan jika presiden atau Departemen Pertahanan ditetapkan sebagai ‘pihak yang bertanggung jawab’, pada praktiknya pertanggungjawaban nyata mustahil ditegakkan
Dalam postingan pertama, disebutkan bahwa kontrak OpenAI mencakup pengaman yang didasarkan pada batasan hukum
Dalam postingan kedua, dikatakan kontrak dibuat berdasarkan “semua penggunaan yang sah”, dan ini diklaim sebagai pendekatan yang menempatkan kewenangan pada sistem demokratis
Disebutkan bahwa Anthropic menolak kompromi seperti ini
Di masa lalu pun banyak contoh tindakan ilegal yang dibungkus seolah legal, dan ada juga kasus ketika hukumnya sendiri diubah
Pada akhirnya, hukum saja tidak bisa mencegah penyalahgunaan kekuasaan oleh pemerintah
Bahkan jika penjelasannya benar, sulit dipercaya sebelum media yang dapat diandalkan memublikasikan naskah lengkap kontraknya
Jika itu memang benar, respons seperti memboikot OpenAI dan militer AS tampaknya pantas
Artikel terkait
Mungkin masalahnya bukan pada garis batasnya, melainkan karena pemerintah memandang Anthropic sebagai lawan politik
Namun jika dilihat lebih objektif, inti persoalannya adalah apakah pihak yang menentukan “penggunaan yang sah” itu pemerintah atau perusahaan AI
Melihat tweet terkait, disebutkan Anthropic ingin mencerminkan standar ini langsung dalam konstitusi Claude
Pada akhirnya saya membatalkan langganan sampai ada posisi yang jelas dari OpenAI
Namun kemudian tiba-tiba menuntut negosiasi ulang sambil mengancam penetapan SCR dan akuisisi paksa DPA
Jika kontrak OpenAI memang mirip dengan Anthropic, maka ini benar-benar munafik dan tidak adil
Seiring waktu, model untuk senjata otonom akan diizinkan, dan fungsi pengawasan bisa dialihkan lewat Palantir
Besar kemungkinan ini hanya kebohongan strategis untuk membuat Anthropic terlihat buruk
Tanpa basis pengguna, OpenAI tidak bisa mempertahankan valuasi perusahaan yang saat ini terlalu dibesar-besarkan
Model-model lain juga sudah cukup kompetitif
Saya muak dengan perilaku korup seperti ini