- Perusahaan riset kecerdasan buatan Anthropic mencabut komitmen utama dalam kebijakan keselamatan intinya, Responsible Scaling Policy (RSP)
- Sebelumnya, perusahaan berjanji akan menghentikan pelatihan model AI jika langkah-langkah keselamatan tidak dapat dijamin secara memadai, tetapi klausul ini dihapus dalam kebijakan baru
- RSP baru menjanjikan peningkatan transparansi dan upaya keselamatan yang setara atau lebih tinggi dari pesaing, serta menyatakan bahwa pengembangan dapat “ditunda” jika risikonya dinilai serius
- Perusahaan menjelaskan bahwa perubahan ini bukan karena tekanan pasar, melainkan respons terhadap realitas politik dan ilmiah
- Para ahli menilai langkah ini sebagai sinyal bahwa kesiapan sosial terhadap risiko bencana AI masih kurang
Latar belakang perubahan RSP (Responsible Scaling Policy)
- Pada 2023, Anthropic mengumumkan janji bahwa mereka tidak akan melatih sistem AI jika langkah keselamatan belum terbukti memadai
- Ini adalah kebijakan kunci yang memperkuat citra perusahaan sebagai pihak yang memprioritaskan keselamatan di atas persaingan pasar
- Baru-baru ini perusahaan merombak RSP secara menyeluruh dan mencabut janji bahwa mereka tidak akan merilis model tanpa jaminan keselamatan sebelumnya
- Jared Kaplan (Chief Science Officer) mengatakan bahwa “karena laju perkembangan AI terlalu cepat, janji sepihak tidak realistis”
Poin utama kebijakan baru
- RSP baru mencakup perluasan transparansi terhadap risiko keselamatan AI
- Anthropic akan membuka lebih banyak hasil uji keselamatan modelnya dan menyatakan akan mempertahankan atau melampaui langkah keselamatan pada tingkat pesaing
- Jika perusahaan berada di posisi terdepan dalam persaingan AI dan menilai risiko bencananya besar, pengembangan dapat ‘ditunda’
- Namun, garis batas yang jelas yang sebelumnya melarang pelatihan model di atas tingkat tertentu kini hilang
Konteks industri di balik perubahan kebijakan
- Anthropic baru-baru ini meraih hasil komersial berkat keberhasilan model Claude dan Claude Code
- Pada Februari 2026, perusahaan dilaporkan menghimpun investasi sebesar 30 miliar dolar AS, memiliki valuasi sekitar 380 miliar dolar AS, dan mencatat pertumbuhan pendapatan tahunan 10x
- Model bisnis yang berfokus pada B2B dinilai lebih dapat dipercaya dibanding strategi berfokus konsumen milik OpenAI
- Kaplan menegaskan bahwa perubahan ini bukan karena tekanan pasar, melainkan penyesuaian praktis terhadap perubahan lingkungan politik dan ilmiah
Keterbatasan regulasi dan sains
- Saat memperkenalkan RSP, Anthropic berharap perusahaan lain juga akan mengadopsi langkah serupa, tetapi hal itu tidak terjadi
- Tidak adanya rancangan regulasi AI di tingkat federal AS, sikap deregulasi dari pemerintahan Trump, dan gagalnya kerja sama internasional terus berlanjut
- Kompleksitas ilmu evaluasi AI juga disebut sebagai masalah
- Pada 2025, Anthropic menyatakan bahwa mereka tidak dapat menyingkirkan kemungkinan modelnya disalahgunakan untuk bioteror, tetapi dasar ilmiah untuk membuktikannya masih kurang
Diskusi internal dan proses pengambilan keputusan
- Selama sekitar satu tahun, para eksekutif membahas arah perombakan RSP agar sesuai dengan lingkungan baru
- Pokok bahasan utamanya adalah prinsip pendirian bahwa untuk melakukan riset keselamatan AI, perusahaan harus mengembangkan model frontier secara langsung
- Menurut Kaplan, CEO Dario Amodei menilai bahwa “jika pesaing terus mengembangkan sementara hanya Anthropic yang berhenti, justru itu lebih berbahaya”
- Pengantar RSP baru menyatakan bahwa “jika pengembang dengan perlindungan paling lemah yang menentukan kecepatan, maka pengembang yang bertanggung jawab akan kehilangan kemampuan untuk melakukan riset keselamatan”
Penilaian dan kekhawatiran eksternal
- Chris Painter (Direktur Kebijakan METR) menilai perubahan ini dapat dipahami, tetapi juga menunjukkan kurangnya kesiapan sosial terhadap risiko bencana AI
- Ia mengatakan Anthropic telah beralih ke mode tanggap darurat (triage mode) karena “penilaian risiko dan metode mitigasi tidak mampu mengejar laju perkembangan teknologi”
- Painter menilai positif pelaporan risiko yang transparan dan publikasi roadmap keselamatan dalam kebijakan baru, namun
- ia khawatir hilangnya binary threshold dalam RSP sebelumnya dapat memicu ‘efek katak direbus perlahan’, di mana risiko meningkat sedikit demi sedikit
Rencana ke depan dan janji keterbukaan
- Anthropic menjelaskan bahwa RSP baru tetap mempertahankan keunggulan inti dari kebijakan lama
- Di masa lalu, pembatasan peluncuran model berfungsi sebagai pendorong untuk mengembangkan langkah mitigasi keselamatan
- Untuk mempertahankan dorongan itu dalam kebijakan baru, perusahaan akan secara berkala mempublikasikan ‘Frontier Safety Roadmaps’
- Selain itu, perusahaan juga berencana menerbitkan ‘Risk Reports’ setiap 3–6 bulan yang akan mencakup
- penilaian atas kemampuan model, skenario ancaman, langkah mitigasi risiko, dan tingkat risiko secara keseluruhan
- Kaplan menegaskan bahwa “jika para pesaing merespons risiko bencana secara transparan, Anthropic juga akan mempertahankan standar keselamatan yang setara atau lebih tinggi”
2 komentar
Anthropic bisa saja keras kepala, tetapi pada akhirnya kalau Departemen Pertahanan AS memerintahkan, mereka harus patuh. Bukankah pada akhirnya ini memang sudah menjadi alur yang tak terelakkan?
Komentar Hacker News
Melihat Anthropic menjelaskan alasan mencabut janji untuk menghentikan pelatihan model AI dengan “karena para pesaing sudah melaju lebih dulu”, rasanya itu pada akhirnya menunjukkan bahwa ini soal uang
Terdengar seperti logika “kalau semua orang menendang anak anjing, maka kita juga harus melakukannya”.
Orang-orang percaya Anthropic adalah ‘perusahaan baik’, tetapi pada akhirnya semuanya sama saja, hanya mengejar keuntungan
Tetapi kenyataannya, sebagian besar perusahaan AI berada di bawah ‘pemerintah di atas kertas’
Ini bukan hanya masalah perusahaan AI, tetapi itu juga tidak berarti bisa dibenarkan
Karena itu regulasi soal keselamatan, lingkungan, dan antikorupsi mutlak diperlukan
Terasa seperti siklus khas startup AI
“Mari bangun moat untuk menyelamatkan umat manusia” → “Mari regulasi pesaing open source” → “Keselamatan mengganggu laporan kuartal Q3”
Sebenarnya tertutup, tetapi menggaslight orang dengan mengklaim dirinya “terbuka”
Saya dulu bekerja di Anthropic, dan orang-orang seperti Jared Kaplan benar-benar memikirkan keseimbangan antara riset keselamatan dan teknologi frontier
Tetapi keputusan kali ini mengecewakan. Saya percaya ‘Responsible Scaling Policy’ adalah komitmen nyata yang akan tetap dijaga bahkan dalam situasi seperti ini
Janji itu membuat Anthropic terlihat sebagai “lab yang paling kecil risikonya”, tetapi sekarang sinyal itu melemah
Saya khawatir ke depan yang diprioritaskan adalah mempertahankan posisi, bukan prinsip
Meski begitu, jika masih ada nilai yang tersisa, saya pikir lebih baik tetap punya pengaruh meski hanya di antara lab-lab yang sama sekali tak punya nilai
Tanggung jawab moral harus kita bagi bersama
Fakta bahwa mereka sendiri mencabut sinyal itu berarti sekarang mereka ingin bergerak ke pasar yang berbeda
Pelamar diminta menulis esai tentang keselamatan AI, semua orang berakting seolah-olah sedang “menyelamatkan dunia”
Namun ketika uang benar-benar dipertaruhkan seperti sekarang, tidak ada yang buka suara
Karena perusahaan secara struktural tak bisa lepas dari naluri memaksimalkan laba
Keputusan kali ini mirip dengan momen Mozilla menerima DRM
Memang tidak sempurna, tetapi Anthropic setidaknya masih berusaha punya rasa tanggung jawab
Dibandingkan OpenAI, setidaknya untuk sekarang masih ada alasan untuk memberi kepercayaan
Judul artikelnya berlebihan. Kontroversi kali ini bukan soal negosiasi dengan Pentagon, melainkan tentang Responsible Scaling Policy 3.0 yang diumumkan Anthropic
Bahkan bisa jadi ini adalah langkah pencegahan
Ada tekanan dari pemerintah, tetapi artikel itu sama sekali tidak menyebutkannya
Tulisan yang dimulai dengan “Pada awalnya, ketika model dirilis tanpa verifikasi keselamatan, tak ada yang mengatakan apa pun…” terdengar seperti fabel peringatan
Pada akhirnya, tak seorang pun bersiap, dan ketika masalah meledak semuanya sudah terlambat
Masalah yang sesungguhnya lebih berada di ranah politik dan budaya ketimbang teknologi
Mencabut janji keselamatan tepat pada saat ini terasa penuh makna
Perusahaan seperti ini bisa saja mengikuti kode etik, tetapi akan langsung membuangnya saat keuntungan terancam
Pada akhirnya tujuannya adalah mendevaluasi nilai tenaga kerja kerah putih
Akankah mereka memimpin transisi itu secara etis, atau justru memindahkan kekayaan kepada para pemegang saham?
Ibarat ular memakan ekornya sendiri
Hakikat perusahaan adalah mengejar laba, dan itu sendiri tidak buruk, tetapi gestur moral seperti ini terasa munafik
“Don’t be evil” milik Google bertahan 15 tahun, tetapi Responsible Scaling Policy milik Anthropic hilang hanya dalam dua setengah tahun
Waktu paruh idealisme AI makin lama makin pendek
Perubahan di Anthropic memang disayangkan, tetapi secara realistis mereka juga tak boleh terlalu tertinggal dalam persaingan demi keselamatan
Sekarang adalah saatnya pragmatisme. Nanti Anthropic mungkin bisa “menjadi jahat”, tetapi untuk saat ini tetap pihak yang paling aman
Fakta bahwa CEO-nya menolak penggunaan AI untuk perang dipandang positif
Kita harus waspada sebelum semuanya terlambat