- Anthropic memperbarui Ketentuan Layanan untuk konsumen dan Kebijakan Privasi
- Pengguna kini dapat memilih sendiri apakah akan mengizinkan datanya digunakan untuk peningkatan model
- Berlaku untuk paket Claude Free, Pro, dan Max, serta tidak berlaku bagi pengguna layanan komersial dan API yang sudah ada
- Jika mengizinkan penyediaan data, pengguna dapat berkontribusi pada penguatan keamanan model dan peningkatan kemampuan seperti coding pada model mendatang
- Persetujuan penggunaan data, periode penyimpanan, dan perubahan terkait dapat dikelola kapan saja di pengaturan
Poin utama pembaruan
- Anthropic memperbarui Ketentuan Layanan konsumen dan Kebijakan Privasi untuk meningkatkan performa AI Claude sekaligus memperkuat perlindungan pengguna
- Pengguna dapat memilih apakah akan memberikan datanya untuk peningkatan model Claude dan penguatan pengaman
- Di pengaturan, pengguna dapat menyesuaikan pilihan penyediaan data kapan saja
Cakupan penerapan dan pengecualian
- Pembaruan ini hanya berlaku untuk pengguna paket Claude Free, Pro, Max, serta pengguna Claude Code dalam paket tersebut
- Layanan di bawah ketentuan komersial, yaitu Claude for Work, Claude Gov, Claude for Education, dan penggunaan API (termasuk melalui pihak ketiga, misalnya Amazon Bedrock, Google Cloud Vertex AI), tidak termasuk
Dampak persetujuan penggunaan data
- Jika menyetujui penyediaan data, keamanan model akan meningkat dan ketepatan sistem pencegahan kerugian dan penyalahgunaan juga akan bertambah
- Hal ini dapat berkontribusi pada peningkatan berbagai kemampuan model Claude di masa depan, seperti coding, analisis, dan penalaran
- Pengaturan ini selalu dapat dikendalikan langsung oleh pengguna, dan opsi dapat dipilih saat pendaftaran baru atau melalui jendela pop-up bagi pengguna lama
Pemberitahuan dan mulai berlaku
- Melalui notifikasi di dalam aplikasi, pengguna akan diberi tahu tentang pembaruan ini dan kesempatan untuk mengubah pengaturan
- Pengguna lama dapat memutuskan hingga 28 September 2025 apakah akan menyetujui ketentuan dan penyediaan data
- Jika menyetujui, kebijakan baru berlaku segera, dan hanya berlaku untuk percakapan atau sesi coding yang baru atau dilanjutkan kembali
- Setelah 28 September 2025, pengguna harus memilih pengaturan secara langsung agar dapat terus menggunakan Claude
- Opsi dapat diubah di Privacy Settings
Perpanjangan periode penyimpanan data
- Jika menyetujui penyediaan data untuk pelatihan model, periode penyimpanan data diperpanjang menjadi 5 tahun
- Perpanjangan penyimpanan ini hanya berlaku untuk percakapan dan sesi coding yang baru/dilanjutkan kembali, serta digunakan untuk peningkatan model dan keamanan
- Jika percakapan dihapus, data tersebut tidak akan digunakan untuk pelatihan model di masa mendatang
- Jika tidak menyetujui penyediaan data, kebijakan penyimpanan 30 hari yang ada saat ini tetap berlaku
Pemrosesan data umpan balik
- Umpan balik pengguna juga mengikuti kebijakan penyimpanan 5 tahun
Perlindungan privasi dan cara pemrosesan data
- Anthropic melindungi privasi pengguna dengan memfilter/mempseudonimkan data sensitif menggunakan alat dan proses otomatis
- Data pengguna tidak dijual kepada pihak ketiga
Informasi tambahan
- Rincian perubahan pada Ketentuan Layanan konsumen dan Kebijakan Privasi dapat dilihat di bagian FAQ
1 komentar
Komentar Hacker News
Ada yang penasaran apakah pengguna bisa mencemari dataset pelatihan masa depan, misalnya dengan selalu memberi umpan balik tidak puas meski sebenarnya sudah terbantu, atau dengan sengaja mengarahkan percakapan ke arah yang destruktif lalu meninggalkan umpan balik yang sangat positif
Saya tidak suka cara ini ditampilkan seolah default-nya
opt-inpadahal pada praktiknyaopt-out, digiring lewat prompt yang tampak seperti sekadar pembaruan syarat, dan penyimpanan data selama 5 tahun menurut saya juga berlebihan, jadi saya curiga masih ada hal bermasalah lain di syarat baru ini, dan pada akhirnya ini membuat saya membatalkan langgananopt-out-lah yang menjadi defaultopt-out, satu klik keliru saja bisa membuat semua data diambil, nanti mereka bahkan bisa saja menghapusopt-outsepenuhnya, atau 4 tahun 364 hari dari sekarang mengganti syarat dan memperpanjang retensi jadi 10 tahun, dan pada saat itu privasi mungkin sudah sangat terkikis sampai orang bahkan tak lagi sadar bahwa opsi seperti ini sebenarnya sudah tidak adaopt-out, jadi dari sisi transparansi kelihatannya lumayan baikClaude sedang membantu riset matematika saya, dan saya khawatir jika saya menyampaikan ide riset yang belum dipublikasikan kepada Claude selama percakapan, lalu nanti Claude merekomendasikan ide yang sama kepada orang lain dan orang itu mengira itu ide miliknya sendiri, ini membuat saya merasa privasi sangat dibutuhkan dalam pengembangan pengetahuan dengan AI, bukan hanya untuk akun komersial tetapi juga bagi individu
opt-outpada pop-up terkait syarat baru, chat saya tidak akan dipakai untuk pelatihanIni sudah bisa diduga, para pemain utama sudah mentok karena hampir semua data untuk pelatihan—seluruh internet hingga konten curian yang bahkan memicu gugatan—sudah mereka pakai, dan karena beberapa tahun terakhir tidak ada inovasi besar dalam arsitektur model, sekarang mereka berperang memperebutkan lebih banyak data pelatihan, dan pada akhirnya mulai merambah data pengguna dengan cara yang makin meragukan
Banyak orang mungkin tidak terkejut, tetapi bagi saya ini cukup mengejutkan, misalnya seperti Google tidak akan menaruh isi Gmail pengguna ke hasil pencarian, jadi saya menganggap ini keputusan bisnis yang merusak diri sendiri, atau mungkin ada sesuatu yang saya lewatkan
opt-outJustru selama ini saya merasa frustrasi karena AI sama sekali tampak tidak bisa belajar dari interaksi dengan pengguna, terutama karena terus mengulangi kesalahan yang sama, jadi saya malah heran perubahan ini baru dilakukan sekarang
Jika banyak orang menentang, saya justru melihatnya cukup positif, membiarkan LLM belajar dari percakapan masa lalu sangat penting bagi perkembangan model, saya juga sadar bahwa dalam jangka panjang berbahaya jika pengetahuan kolektif terkonsentrasi pada segelintir perusahaan, jadi pada akhirnya menurut saya satu-satunya solusi adalah model “self custody” di mana organisasi atau individu menjalankan dan melatih model mereka sendiri, tentu saja ini baru realistis jika biayanya turun banyak
Fakta bahwa kebijakan ini baru diubah sekarang justru lebih buruk; saya sejak awal memang ingin data saya dipakai untuk pelatihan, bahkan jika mereka terus belajar pun saya tidak keberatan, kalau ingin sangat terobsesi pada privasi data maka tinggal jangan pakai data Anda sendiri, saya justru berada di posisi yang sepenuhnya berlawanan dan perusahaan sama sekali tidak mempertimbangkan kecenderungan seperti ini, saya juga kesal karena di Google tidak ada opsi “silakan pakai semua data saya secara aktif untuk pelatihan”, saya sudah berkali-kali memasukkan lokasi tempat tinggal saya tetapi tetap saja mereka lupa, semuanya dirancang dengan asumsi bahwa “tak seorang pun ingin membagikan datanya”, bahkan wawancara DeepMind di bidang medis pun selalu dimulai dari ketakutan, bencana, dan obsesi atas berbagi data, saya tidak pernah mengalami kerugian besar karenanya dan justru merasa terbantu untuk kemajuan medis, di NHS saya pun selalu berusaha mencentang “gunakan data saya secara aktif”, tetapi default-nya selalu “tolak semua” sehingga pilihannya merepotkan, saya ingin ada satu master check saja untuk mengatakan “pakai semua data saya dan jangan tanya lagi”
Saya percaya Anthropic, dalam jangka panjang, membidik basis pengguna yang kecil tetapi kuat secara teknis, dan secara prinsip saya akan membatalkan langganan, model open source memang belum memenuhi kebutuhan saya setara Claude (persiapan uji keamanan berbasis standar ISO/IEEE), tetapi saya akan mencari solusi
Saya heran kenapa yang ditautkan bukan pengumuman resmi aslinya langsung, melainkan artikel ringkasan AI yang ditulis perplexity.ai, padahal di pengumuman aslinya tautan poin-pentingnya jelas: ada pop-up notifikasi dalam aplikasi untuk memberi tahu perubahan dan memungkinkan memilih
opt-out, bisaopt-outkapan saja dari menu pengaturan, berlaku mulai 28 September, hanya berlaku saat menyetujui syarat baru dan sesi diperbarui, dan tidak berlaku untuk API/layanan eksternal, Claude Gov, Claude for Education, dan seterusnya, tautan ke sumber asli jelas lebih bergunaopt-out, saya tidak terlalu peduli, tetapi saya penasaran apakah aplikasi pihak ketiga yang terhubung ke Claude API seperti JetBrains AI atau Zed memutuskanopt-inatas nama pengguna, untuk kasus berbasis API seperti ini, opsi pelatihan semacam ini sama sekali tidak boleh menjadi defaultopt-in, dan menurut saya seluruh industri harus mengikuti pendekatan itu