14 poin oleh GN⁺ 2026-02-26 | 2 komentar | Bagikan ke WhatsApp
  • Perusahaan riset kecerdasan buatan Anthropic mencabut komitmen utama dalam kebijakan keselamatan intinya, Responsible Scaling Policy (RSP)
  • Sebelumnya, perusahaan berjanji akan menghentikan pelatihan model AI jika langkah-langkah keselamatan tidak dapat dijamin secara memadai, tetapi klausul ini dihapus dalam kebijakan baru
  • RSP baru menjanjikan peningkatan transparansi dan upaya keselamatan yang setara atau lebih tinggi dari pesaing, serta menyatakan bahwa pengembangan dapat “ditunda” jika risikonya dinilai serius
  • Perusahaan menjelaskan bahwa perubahan ini bukan karena tekanan pasar, melainkan respons terhadap realitas politik dan ilmiah
  • Para ahli menilai langkah ini sebagai sinyal bahwa kesiapan sosial terhadap risiko bencana AI masih kurang

Latar belakang perubahan RSP (Responsible Scaling Policy)

  • Pada 2023, Anthropic mengumumkan janji bahwa mereka tidak akan melatih sistem AI jika langkah keselamatan belum terbukti memadai
    • Ini adalah kebijakan kunci yang memperkuat citra perusahaan sebagai pihak yang memprioritaskan keselamatan di atas persaingan pasar
  • Baru-baru ini perusahaan merombak RSP secara menyeluruh dan mencabut janji bahwa mereka tidak akan merilis model tanpa jaminan keselamatan sebelumnya
  • Jared Kaplan (Chief Science Officer) mengatakan bahwa “karena laju perkembangan AI terlalu cepat, janji sepihak tidak realistis”

Poin utama kebijakan baru

  • RSP baru mencakup perluasan transparansi terhadap risiko keselamatan AI
    • Anthropic akan membuka lebih banyak hasil uji keselamatan modelnya dan menyatakan akan mempertahankan atau melampaui langkah keselamatan pada tingkat pesaing
  • Jika perusahaan berada di posisi terdepan dalam persaingan AI dan menilai risiko bencananya besar, pengembangan dapat ‘ditunda’
  • Namun, garis batas yang jelas yang sebelumnya melarang pelatihan model di atas tingkat tertentu kini hilang

Konteks industri di balik perubahan kebijakan

  • Anthropic baru-baru ini meraih hasil komersial berkat keberhasilan model Claude dan Claude Code
    • Pada Februari 2026, perusahaan dilaporkan menghimpun investasi sebesar 30 miliar dolar AS, memiliki valuasi sekitar 380 miliar dolar AS, dan mencatat pertumbuhan pendapatan tahunan 10x
  • Model bisnis yang berfokus pada B2B dinilai lebih dapat dipercaya dibanding strategi berfokus konsumen milik OpenAI
  • Kaplan menegaskan bahwa perubahan ini bukan karena tekanan pasar, melainkan penyesuaian praktis terhadap perubahan lingkungan politik dan ilmiah

Keterbatasan regulasi dan sains

  • Saat memperkenalkan RSP, Anthropic berharap perusahaan lain juga akan mengadopsi langkah serupa, tetapi hal itu tidak terjadi
  • Tidak adanya rancangan regulasi AI di tingkat federal AS, sikap deregulasi dari pemerintahan Trump, dan gagalnya kerja sama internasional terus berlanjut
  • Kompleksitas ilmu evaluasi AI juga disebut sebagai masalah
    • Pada 2025, Anthropic menyatakan bahwa mereka tidak dapat menyingkirkan kemungkinan modelnya disalahgunakan untuk bioteror, tetapi dasar ilmiah untuk membuktikannya masih kurang

Diskusi internal dan proses pengambilan keputusan

  • Selama sekitar satu tahun, para eksekutif membahas arah perombakan RSP agar sesuai dengan lingkungan baru
    • Pokok bahasan utamanya adalah prinsip pendirian bahwa untuk melakukan riset keselamatan AI, perusahaan harus mengembangkan model frontier secara langsung
  • Menurut Kaplan, CEO Dario Amodei menilai bahwa “jika pesaing terus mengembangkan sementara hanya Anthropic yang berhenti, justru itu lebih berbahaya”
  • Pengantar RSP baru menyatakan bahwa “jika pengembang dengan perlindungan paling lemah yang menentukan kecepatan, maka pengembang yang bertanggung jawab akan kehilangan kemampuan untuk melakukan riset keselamatan”

Penilaian dan kekhawatiran eksternal

  • Chris Painter (Direktur Kebijakan METR) menilai perubahan ini dapat dipahami, tetapi juga menunjukkan kurangnya kesiapan sosial terhadap risiko bencana AI
    • Ia mengatakan Anthropic telah beralih ke mode tanggap darurat (triage mode) karena “penilaian risiko dan metode mitigasi tidak mampu mengejar laju perkembangan teknologi”
  • Painter menilai positif pelaporan risiko yang transparan dan publikasi roadmap keselamatan dalam kebijakan baru, namun
    • ia khawatir hilangnya binary threshold dalam RSP sebelumnya dapat memicu ‘efek katak direbus perlahan’, di mana risiko meningkat sedikit demi sedikit

Rencana ke depan dan janji keterbukaan

  • Anthropic menjelaskan bahwa RSP baru tetap mempertahankan keunggulan inti dari kebijakan lama
    • Di masa lalu, pembatasan peluncuran model berfungsi sebagai pendorong untuk mengembangkan langkah mitigasi keselamatan
    • Untuk mempertahankan dorongan itu dalam kebijakan baru, perusahaan akan secara berkala mempublikasikan ‘Frontier Safety Roadmaps’
  • Selain itu, perusahaan juga berencana menerbitkan ‘Risk Reports’ setiap 3–6 bulan yang akan mencakup
    • penilaian atas kemampuan model, skenario ancaman, langkah mitigasi risiko, dan tingkat risiko secara keseluruhan
  • Kaplan menegaskan bahwa “jika para pesaing merespons risiko bencana secara transparan, Anthropic juga akan mempertahankan standar keselamatan yang setara atau lebih tinggi

2 komentar

 
tsboard 2026-02-26

Anthropic bisa saja keras kepala, tetapi pada akhirnya kalau Departemen Pertahanan AS memerintahkan, mereka harus patuh. Bukankah pada akhirnya ini memang sudah menjadi alur yang tak terelakkan?

 
GN⁺ 2026-02-26
Komentar Hacker News
  • Melihat Anthropic menjelaskan alasan mencabut janji untuk menghentikan pelatihan model AI dengan “karena para pesaing sudah melaju lebih dulu”, rasanya itu pada akhirnya menunjukkan bahwa ini soal uang
    Terdengar seperti logika “kalau semua orang menendang anak anjing, maka kita juga harus melakukannya”.
    Orang-orang percaya Anthropic adalah ‘perusahaan baik’, tetapi pada akhirnya semuanya sama saja, hanya mengejar keuntungan

    • Anthropic tidak bisa mewakili nalar pasar. Peran seperti itu seharusnya dijalankan oleh regulasi dan sistem pengawasan pemerintah
      Tetapi kenyataannya, sebagian besar perusahaan AI berada di bawah ‘pemerintah di atas kertas’
    • Sebenarnya, “yang penting menang” adalah realitas umum di hampir semua industri
      Ini bukan hanya masalah perusahaan AI, tetapi itu juga tidak berarti bisa dibenarkan
    • Kalau pada akhirnya uang adalah segalanya, saya memilih untuk memilih dengan dompet, lalu membatalkan langganan Max
    • Jika persaingan dibiarkan tanpa regulasi, pada akhirnya semua perusahaan yang sukses akan menimbulkan penipuan dan kerugian
      Karena itu regulasi soal keselamatan, lingkungan, dan antikorupsi mutlak diperlukan
  • Terasa seperti siklus khas startup AI
    “Mari bangun moat untuk menyelamatkan umat manusia” → “Mari regulasi pesaing open source” → “Keselamatan mengganggu laporan kuartal Q3”

    • Pada akhirnya itu berujung pada pernyataan bernada “ternyata anggaran Pentagon lebih penting daripada keselamatan”
    • Setelah menjadi penguasa pasar, mereka akan mendorong regulasi pemerintah lewat organisasi nirlaba yang mereka danai
    • Yang mengejutkan adalah perubahan ini terjadi terlalu cepat
    • Bukan hanya AI, perusahaan lain yang mengusung kata “open” juga mirip
      Sebenarnya tertutup, tetapi menggaslight orang dengan mengklaim dirinya “terbuka”
    • Para politikus juga suka regulasi. Terutama kalau ditemani anggur dan steak, begitu sindiran bercampur leluconnya
  • Saya dulu bekerja di Anthropic, dan orang-orang seperti Jared Kaplan benar-benar memikirkan keseimbangan antara riset keselamatan dan teknologi frontier
    Tetapi keputusan kali ini mengecewakan. Saya percaya ‘Responsible Scaling Policy’ adalah komitmen nyata yang akan tetap dijaga bahkan dalam situasi seperti ini
    Janji itu membuat Anthropic terlihat sebagai “lab yang paling kecil risikonya”, tetapi sekarang sinyal itu melemah
    Saya khawatir ke depan yang diprioritaskan adalah mempertahankan posisi, bukan prinsip

    • Ucapan seperti “saya berharap mereka bergerak sesuai nilai-nilai” mungkin merupakan harapan yang terlalu naif
      Meski begitu, jika masih ada nilai yang tersisa, saya pikir lebih baik tetap punya pengaruh meski hanya di antara lab-lab yang sama sekali tak punya nilai
    • Jika kita sendiri tidak mau melepas RSU (kompensasi saham), maka kita juga tak bisa mengharapkan hal yang sama dari manajemen
      Tanggung jawab moral harus kita bagi bersama
    • Janji itu memang tidak mengikat secara hukum, tetapi tetap berarti sebagai sinyal kepada pasar
      Fakta bahwa mereka sendiri mencabut sinyal itu berarti sekarang mereka ingin bergerak ke pasar yang berbeda
    • Tahun lalu saya sempat wawancara di Anthropic, dan itu terasa seperti pertunjukan etika
      Pelamar diminta menulis esai tentang keselamatan AI, semua orang berakting seolah-olah sedang “menyelamatkan dunia”
      Namun ketika uang benar-benar dipertaruhkan seperti sekarang, tidak ada yang buka suara
    • Prinsip seperti ini pada akhirnya hanya bisa dipertahankan di level pemerintah
      Karena perusahaan secara struktural tak bisa lepas dari naluri memaksimalkan laba
  • Keputusan kali ini mirip dengan momen Mozilla menerima DRM
    Memang tidak sempurna, tetapi Anthropic setidaknya masih berusaha punya rasa tanggung jawab
    Dibandingkan OpenAI, setidaknya untuk sekarang masih ada alasan untuk memberi kepercayaan

  • Judul artikelnya berlebihan. Kontroversi kali ini bukan soal negosiasi dengan Pentagon, melainkan tentang Responsible Scaling Policy 3.0 yang diumumkan Anthropic

    • Tentu saja, tidak bisa dipastikan kedua hal itu sama sekali tak berkaitan
      Bahkan bisa jadi ini adalah langkah pencegahan
    • Saya justru merasa perubahan kebijakan kali ini adalah perubahan yang lebih besar daripada isu Pentagon
  • Ada tekanan dari pemerintah, tetapi artikel itu sama sekali tidak menyebutkannya

    • Menurut laporan terkait, pertemuan antara Hegseth dan CEO Anthropic Dario Amodei telah dikonfirmasi
    • Karena itu ada pendapat bahwa mereka berhasil mendapat laporan eksklusif
    • Sebagian melihat ini sebagai rekayasa opini publik (Consent manufacturing)
    • Ada kritik bahwa nama Hegseth bahkan tidak muncul di artikel
  • Tulisan yang dimulai dengan “Pada awalnya, ketika model dirilis tanpa verifikasi keselamatan, tak ada yang mengatakan apa pun…” terdengar seperti fabel peringatan
    Pada akhirnya, tak seorang pun bersiap, dan ketika masalah meledak semuanya sudah terlambat

    • Pengabaian kolektif seperti ini adalah masalah kronis dalam masyarakat manusia
    • Peringatannya sudah cukup, tetapi orang-orang terjebak dalam keserakahan dan cara pikir jangka pendek
    • Kalau diungkapkan dengan gaya HN, pada akhirnya kita semua adalah komplotan dari sistem itu
    • Ada juga reaksi bahwa ini terdengar agak seperti pembuka narasi Terminator
    • Namun secara realistis, skenario AI menjadi tak terkendali masih jauh
      Masalah yang sesungguhnya lebih berada di ranah politik dan budaya ketimbang teknologi
  • Mencabut janji keselamatan tepat pada saat ini terasa penuh makna
    Perusahaan seperti ini bisa saja mengikuti kode etik, tetapi akan langsung membuangnya saat keuntungan terancam
    Pada akhirnya tujuannya adalah mendevaluasi nilai tenaga kerja kerah putih
    Akankah mereka memimpin transisi itu secara etis, atau justru memindahkan kekayaan kepada para pemegang saham?

    • Timing kali ini juga bisa menjadi sinyal awal tekanan pemerintah
    • Tetapi jika kelas menengah runtuh, pada akhirnya basis konsumen juga akan hilang
      Ibarat ular memakan ekornya sendiri
    • Slogan seperti “Don’t be evil” pada akhirnya hanyalah bungkus demi keuntungan
      Hakikat perusahaan adalah mengejar laba, dan itu sendiri tidak buruk, tetapi gestur moral seperti ini terasa munafik
  • “Don’t be evil” milik Google bertahan 15 tahun, tetapi Responsible Scaling Policy milik Anthropic hilang hanya dalam dua setengah tahun
    Waktu paruh idealisme AI makin lama makin pendek

  • Perubahan di Anthropic memang disayangkan, tetapi secara realistis mereka juga tak boleh terlalu tertinggal dalam persaingan demi keselamatan
    Sekarang adalah saatnya pragmatisme. Nanti Anthropic mungkin bisa “menjadi jahat”, tetapi untuk saat ini tetap pihak yang paling aman

    • Ada juga pertanyaan kenapa orang begitu percaya pada Anthropic
      Fakta bahwa CEO-nya menolak penggunaan AI untuk perang dipandang positif
    • Tetapi perubahan seperti ini juga bisa jadi sudah merupakan tanda sedang menjadi jahat
      Kita harus waspada sebelum semuanya terlambat
    • Ada juga reaksi sinis bahwa dunia rusak justru karena para pragmatis