- OpenAI telah menandatangani kontrak untuk menerapkan sistem AI canggih di lingkungan rahasia bersama Department of War, dan meminta agar hal ini berlaku sama untuk semua perusahaan AI
- OpenAI menyatakan kontrak tersebut mencakup lebih banyak pagar pengaman keselamatan dibanding penerapan AI rahasia yang sudah ada
- OpenAI menegaskan garis merah bahwa teknologinya tidak akan digunakan untuk pengawasan domestik skala besar, komando senjata otonom, dan pengambilan keputusan otomatis berisiko tinggi
- Tetap mempertahankan keleluasaan penuh atas safety stack, penerapan berbasis cloud, keterlibatan personel berizin keamanan, serta perlindungan kontraktual yang kuat
- OpenAI dengan jelas menyampaikan kepada Department of War bahwa Anthropic tidak boleh ditetapkan sebagai risiko rantai pasok
Menandatangani kontrak dengan Department of War
- OpenAI menandatangani kontrak dengan Department of War untuk menerapkan sistem AI canggih di lingkungan rahasia
- OpenAI meminta agar penerapan tersebut diberikan secara setara kepada semua perusahaan AI
- OpenAI menyatakan bahwa kontrak kali ini mencakup lebih banyak perlindungan keselamatan dibanding kontrak penerapan AI rahasia sebelumnya
Mempertahankan garis merah
- Teknologi OpenAI tidak digunakan untuk pengawasan domestik skala besar
- Teknologi OpenAI tidak digunakan untuk komando sistem senjata otonom
- Teknologi OpenAI tidak digunakan untuk sistem pengambilan keputusan otomatis berisiko tinggi (misalnya: social credit)
Struktur perlindungan keselamatan berlapis
- Berbeda dengan beberapa laboratorium AI yang dalam penerapan keamanan nasional mengurangi atau menghapus perlindungan yang berpusat pada kebijakan penggunaan
- OpenAI menerapkan pendekatan berlapis yang diperluas
- Mempertahankan keleluasaan penuh atas safety stack
- Mempertahankan metode penerapan berbasis cloud
- Struktur yang melibatkan personel OpenAI dengan izin keamanan
- Mencakup perlindungan kontraktual yang kuat
- Berjalan bersamaan dengan perlindungan yang sudah ada dalam hukum AS
Sikap terhadap Anthropic
- Menyatakan penolakan terhadap penetapan Anthropic sebagai risiko rantai pasok
- Sikap tersebut telah disampaikan dengan jelas kepada Department of War
5 komentar
Sepertinya perlu ada rangkuman linimasa terkait hal ini. Ada juga yang mengatakan OpenAI sedang dalam proses negosiasi kontrak, bukan?
Ini pertama kalinya saya melihat kesalahan ringkasan yang mengatakan tidak ada isi..
Sepertinya ada kasus seperti itu karena
xjadi agak sulit untuk di-crawl. Akan kami perbaiki.Saya selalu mengikuti dengan baik, terima kasih.
Komentar Hacker News
Intinya adalah perbedaan antara bunyi sebenarnya dalam kontrak OpenAI dan apa yang dikatakan Altman
Di kontrak tertulis, “tidak digunakan untuk pengoperasian senjata otonom jika hukum atau kebijakan mewajibkan kendali manusia”
Artinya, jika Departemen Pertahanan menetapkan bahwa “kendali manusia tidak diperlukan”, maka itu tetap dimungkinkan
Anthropic menetapkan larangan mutlak berupa “pengawasan massal sama sekali tidak boleh”, sedangkan OpenAI melonggarkannya menjadi semacam “boleh jika diizinkan hukum”
Menandatangani kontrak seperti itu lalu berpura-pura membela Anthropic tampak seperti aksi PR yang jarang terlihat bahkan di industri ini
Dalam thread X, OpenAI mengklaim bahwa “kontrak dengan Departemen Pertahanan menjaga redline kami”
Namun menurut artikel NPR, Anthropic justru dikeluarkan dari kontrak karena mempertahankan standar yang sama, sementara OpenAI mengambil uangnya
Itulah sebabnya mereka mendapatkan kontraknya
Namun apakah guardrail itu bisa mencegah pengawasan warga sipil masih diragukan
Masalah dengan klausul “Any Lawful Use” adalah bahwa Departemen Pertahanan bisa menentukan definisi ‘sah’ sesuka hati
Jika pengacara internal menulis satu memo, itu langsung menjadi sah
Penyalahgunaan wewenang pemerintah harus diperbaiki lewat pemungutan suara dan reformasi institusi
Sistemnya tidak dirancang seperti itu, tetapi kenyataannya berbeda
Pada akhirnya, “Department of War” yang baru diberi nama itu hanya akan memboroskan pajak dan membeli teknologi tak berguna dengan harga mahal
Saya merasa kasihan pada warga
Perbedaan Anthropic dan OpenAI adalah, Anthropic berusaha memaksakan pembatasan secara teknis sedangkan OpenAI hanya berjanji lewat kata-kata bahwa “semoga pemerintah tidak melanggarnya”
Wajar jika pemerintah memilih yang kedua
Dengan kata lain, itu menyisakan ruang bahwa “jika sah, maka pengawasan massal atau senjata pembunuh otonom pun dimungkinkan”
AI yang mengambil keputusan pembunuhan otonom adalah gagasan yang sangat berbahaya
Bukan hanya karena superintelijensi, tetapi karena dengan model kecil pun siapa saja bisa membuat senjata yang tidak dapat dilacak
Model saat ini memang dilatih dengan sikap positif terhadap kehidupan manusia, tetapi jika itu dihilangkan, hasilnya menjadi sistem yang mengerikan
Ia hanyalah prediktor token probabilistik
Misalnya, program membuat daftar target pembunuhan lalu manusia mengendalikan drone
Orang-orang tampaknya lupa bahwa Anthropic pernah bekerja sama dengan Palantir
Setelah fakta itu terungkap, mereka hanya menutupinya dengan PR
Sepertinya OpenAI memposting ini untuk manajemen citra karena mereka sedang kehilangan pelanggan akibat kontroversi ini
Anthropic menginginkan penguatan regulasi AI oleh pemerintah, dan pada akhirnya mereka sendiri yang terkena dampaknya
Kejadian ini tampak seperti respons PR dari OpenAI karena mereka sadar akan kritik bahwa standar etikanya lemah
Di luar negeri, pemanfaatan yang tidak etis tetap dimungkinkan