1 poin oleh GN⁺ 2025-08-30 | 1 komentar | Bagikan ke WhatsApp
  • Anthropic memperbarui Ketentuan Layanan untuk konsumen dan Kebijakan Privasi
  • Pengguna kini dapat memilih sendiri apakah akan mengizinkan datanya digunakan untuk peningkatan model
  • Berlaku untuk paket Claude Free, Pro, dan Max, serta tidak berlaku bagi pengguna layanan komersial dan API yang sudah ada
  • Jika mengizinkan penyediaan data, pengguna dapat berkontribusi pada penguatan keamanan model dan peningkatan kemampuan seperti coding pada model mendatang
  • Persetujuan penggunaan data, periode penyimpanan, dan perubahan terkait dapat dikelola kapan saja di pengaturan

Poin utama pembaruan

  • Anthropic memperbarui Ketentuan Layanan konsumen dan Kebijakan Privasi untuk meningkatkan performa AI Claude sekaligus memperkuat perlindungan pengguna
  • Pengguna dapat memilih apakah akan memberikan datanya untuk peningkatan model Claude dan penguatan pengaman
  • Di pengaturan, pengguna dapat menyesuaikan pilihan penyediaan data kapan saja

Cakupan penerapan dan pengecualian

  • Pembaruan ini hanya berlaku untuk pengguna paket Claude Free, Pro, Max, serta pengguna Claude Code dalam paket tersebut
  • Layanan di bawah ketentuan komersial, yaitu Claude for Work, Claude Gov, Claude for Education, dan penggunaan API (termasuk melalui pihak ketiga, misalnya Amazon Bedrock, Google Cloud Vertex AI), tidak termasuk

Dampak persetujuan penggunaan data

  • Jika menyetujui penyediaan data, keamanan model akan meningkat dan ketepatan sistem pencegahan kerugian dan penyalahgunaan juga akan bertambah
  • Hal ini dapat berkontribusi pada peningkatan berbagai kemampuan model Claude di masa depan, seperti coding, analisis, dan penalaran
  • Pengaturan ini selalu dapat dikendalikan langsung oleh pengguna, dan opsi dapat dipilih saat pendaftaran baru atau melalui jendela pop-up bagi pengguna lama

Pemberitahuan dan mulai berlaku

  • Melalui notifikasi di dalam aplikasi, pengguna akan diberi tahu tentang pembaruan ini dan kesempatan untuk mengubah pengaturan
  • Pengguna lama dapat memutuskan hingga 28 September 2025 apakah akan menyetujui ketentuan dan penyediaan data
  • Jika menyetujui, kebijakan baru berlaku segera, dan hanya berlaku untuk percakapan atau sesi coding yang baru atau dilanjutkan kembali
  • Setelah 28 September 2025, pengguna harus memilih pengaturan secara langsung agar dapat terus menggunakan Claude
  • Opsi dapat diubah di Privacy Settings

Perpanjangan periode penyimpanan data

  • Jika menyetujui penyediaan data untuk pelatihan model, periode penyimpanan data diperpanjang menjadi 5 tahun
  • Perpanjangan penyimpanan ini hanya berlaku untuk percakapan dan sesi coding yang baru/dilanjutkan kembali, serta digunakan untuk peningkatan model dan keamanan
  • Jika percakapan dihapus, data tersebut tidak akan digunakan untuk pelatihan model di masa mendatang
  • Jika tidak menyetujui penyediaan data, kebijakan penyimpanan 30 hari yang ada saat ini tetap berlaku

Pemrosesan data umpan balik

  • Umpan balik pengguna juga mengikuti kebijakan penyimpanan 5 tahun

Perlindungan privasi dan cara pemrosesan data

  • Anthropic melindungi privasi pengguna dengan memfilter/mempseudonimkan data sensitif menggunakan alat dan proses otomatis
  • Data pengguna tidak dijual kepada pihak ketiga

Informasi tambahan

  • Rincian perubahan pada Ketentuan Layanan konsumen dan Kebijakan Privasi dapat dilihat di bagian FAQ

1 komentar

 
GN⁺ 2025-08-30
Komentar Hacker News
  • Ada yang penasaran apakah pengguna bisa mencemari dataset pelatihan masa depan, misalnya dengan selalu memberi umpan balik tidak puas meski sebenarnya sudah terbantu, atau dengan sengaja mengarahkan percakapan ke arah yang destruktif lalu meninggalkan umpan balik yang sangat positif

  • Saya tidak suka cara ini ditampilkan seolah default-nya opt-in padahal pada praktiknya opt-out, digiring lewat prompt yang tampak seperti sekadar pembaruan syarat, dan penyimpanan data selama 5 tahun menurut saya juga berlebihan, jadi saya curiga masih ada hal bermasalah lain di syarat baru ini, dan pada akhirnya ini membuat saya membatalkan langganan

    • Di semua pengaturan Anthropic lain, sakelar berwarna biru saat aktif dan hitam saat nonaktif, tetapi hanya di kotak pemberitahuan perubahan ini slider berwarna abu-abu pada kedua status, coba buka preferensi dan bandingkan sendiri, rasanya seperti ada seseorang yang sengaja membuatnya begitu, dan itu cukup mengecewakan sekaligus agak pahit
    • Saya ingin mempersoalkan frasa “opt-in by default”, karena yang benar sebenarnya “opt-out”, pengaturan opt-out-lah yang menjadi default
    • Disebut juga soal “disimpan 5 tahun”; begitu sekali dipakai untuk melatih model, itu pada dasarnya tersimpan selamanya
    • Yang benar-benar mengkhawatirkan adalah retensi 5 tahun itu; jika selama 5 tahun ke depan mereka terus mengubah syarat dan terus memunculkan lagi opsi opt-out, satu klik keliru saja bisa membuat semua data diambil, nanti mereka bahkan bisa saja menghapus opt-out sepenuhnya, atau 4 tahun 364 hari dari sekarang mengganti syarat dan memperpanjang retensi jadi 10 tahun, dan pada saat itu privasi mungkin sudah sangat terkikis sampai orang bahkan tak lagi sadar bahwa opsi seperti ini sebenarnya sudah tidak ada
    • Saat saya membuka aplikasi, muncul pop-up perubahan beserta opsi opt-out, jadi dari sisi transparansi kelihatannya lumayan baik
  • Claude sedang membantu riset matematika saya, dan saya khawatir jika saya menyampaikan ide riset yang belum dipublikasikan kepada Claude selama percakapan, lalu nanti Claude merekomendasikan ide yang sama kepada orang lain dan orang itu mengira itu ide miliknya sendiri, ini membuat saya merasa privasi sangat dibutuhkan dalam pengembangan pengetahuan dengan AI, bukan hanya untuk akun komersial tetapi juga bagi individu

    • Ada yang bertanya bukankah itu berarti Claude pada akhirnya membantu pekerjaan orang lain; Claude, di luar chat milik kita sendiri, tidak tahu apa pun selain dari data pelatihannya, jadi ini adalah mekanisme AI klasik
    • Saya melihat AI seperti mesin asosiasi raksasa; dalam riset matematika, membedakan antara “ide yang belum pernah dipikirkan siapa pun” dan “ide yang mungkin sudah pernah dipikirkan seseorang” memang sejak dulu memakan waktu lama, sekarang pun banyak proses berulang mencari kata kunci lewat internet, MathSciNet, ArXiv, dan lain-lain, sedangkan untuk AI saya sudah berinvestasi belajar lebih dari 6 bulan untuk menemukan prompt yang bisa menghasilkan jawaban langka, kemampuan generalisasi AI justru menambah kebingungan, misalnya saat ia tampak paling orisinal, secara paradoks justru sering kali itu hanya menghubungkan bagian-bagian yang sebenarnya sudah dipikirkan banyak orang sebelumnya, dan dengan prompt yang tepat AI juga bisa menghubungkan ide dengan cara seperti itu
    • Jika memilih opt-out pada pop-up terkait syarat baru, chat saya tidak akan dipakai untuk pelatihan
    • Jika pekerjaannya benar-benar orisinal, kemungkinan ide itu muncul lagi nanti dari model semacam ini sangat kecil, karena sistem seperti ini pada dasarnya menghasilkan keluaran yang digeneralisasi dari data yang dibagikan banyak orang, jadi sebuah konsep harus sangat umum di data pelatihan agar muncul saat inferensi, dalam praktiknya ini justru struktur yang melindungi inovasi sekaligus privasi, dan jika sebuah konsep sudah cukup populer sampai taraf tertentu maka ia juga cukup layak masuk ke ranah pengetahuan publik (di luar isu HKI)
    • Batas sejauh mana perusahaan AI akan memanfaatkan pengetahuan manusia yang sebenarnya tidak mereka miliki terasa kabur, bahkan mungkin memang belum pernah diberi batas sama sekali
  • Ini sudah bisa diduga, para pemain utama sudah mentok karena hampir semua data untuk pelatihan—seluruh internet hingga konten curian yang bahkan memicu gugatan—sudah mereka pakai, dan karena beberapa tahun terakhir tidak ada inovasi besar dalam arsitektur model, sekarang mereka berperang memperebutkan lebih banyak data pelatihan, dan pada akhirnya mulai merambah data pengguna dengan cara yang makin meragukan

    • Ratusan broker data juga menginginkan data pengguna, tetapi perusahaan AI punya kanal yang sudah terbangun di mana pengguna secara sukarela memasok data setiap hari, mereka hanya butuh perubahan syarat dengan dark pattern dan sedikit pengelolaan PR, dan kontroversi seperti ini akan dilupakan semua orang dalam seminggu
    • Menarik melihat model AI belakangan mengalami penurunan kualitas saat dilatih pada data buatan sendiri, mungkin situasinya bisa berbeda jika mereka lebih hati-hati memisahkan konten manusia+AI atau membuat kontrak dengan penerbit, tetapi semua orang terburu-buru mengeruk semua data sampai akhirnya semua pihak dirugikan
    • Persoalannya bukan apakah itu “pencurian”, mereka sudah mengakui sendiri di pengadilan bahwa mereka melakukan penyalinan ilegal
    • Bagi perusahaan AI, data adalah tambang emas yang jauh lebih kuat daripada di industri iklan, dan itu elemen yang esensial bagi kelangsungan hidup mereka; perilaku tidak etis yang akan muncul di titik pertemuan AI dan periklanan itulah masalah sebenarnya, dan diduga Google atau Facebook pun mungkin sudah menghubungkan berbagai platform data mereka satu sama lain, jika nanti itu secara terang-terangan dibiarkan, saya campur aduk antara penasaran dan khawatir soal use case apa yang akan muncul
    • Kasus seperti ini sendiri menunjukkan perlunya regulasi dan pengaman yang lebih kuat
  • Banyak orang mungkin tidak terkejut, tetapi bagi saya ini cukup mengejutkan, misalnya seperti Google tidak akan menaruh isi Gmail pengguna ke hasil pencarian, jadi saya menganggap ini keputusan bisnis yang merusak diri sendiri, atau mungkin ada sesuatu yang saya lewatkan

    • Gmail juga pernah menganalisis email selama bertahun-tahun untuk menayangkan iklan hingga 2017 tautan
    • Dari artikel ini tautan saya baru tahu bahwa perubahan kebijakan ini tidak berlaku untuk akun Claude kantor dan pendidikan, dan perlindungan privasi yang ada tetap dipertahankan; pada dasarnya akun gratis atau nonkomersial adalah kelompok yang kurang diperhatikan Anthropic karena tidak menghasilkan uang, dan keputusan kali ini tampaknya dimaksudkan untuk mengurangi arus masuk “pengguna gratis” seperti itu, saya menduga tak lama lagi akan ada pengumuman semacam “kami mendengar masukan Anda dan meluncurkan produk baru yang berfokus pada privasi, cukup bayar $30 per bulan”
    • Data seperti ini sangat berguna untuk reinforcement learning, perusahaan lain juga melakukannya, dan lagipula kalau perlu pengguna bisa opt-out
    • Bingkai bahwa reaksi ini seolah sesuatu yang mengejutkan justru terasa aneh, semua orang sudah menduganya
    • Google memang menambang email secara mendalam untuk berbagai tujuan seperti pemasaran atau penyerahan ke pemerintah, tetapi itu berbeda dari menaruh isi email ke hasil pencarian, dan berbeda pula dari Claude yang memakainya untuk pelatihan, dan Google tidak menerima hukuman besar atas tindakan itu
  • Justru selama ini saya merasa frustrasi karena AI sama sekali tampak tidak bisa belajar dari interaksi dengan pengguna, terutama karena terus mengulangi kesalahan yang sama, jadi saya malah heran perubahan ini baru dilakukan sekarang

    • Pembelajaran real-time tidak terjadi, data saya juga tidak langsung tercermin, data pelatihan tetap dipakai untuk melatih model—proses yang memakan waktu berbulan-bulan—dan data dari satu-dua orang tidak banyak memengaruhi alur penggunaan mayoritas, yang memberi efek pelatihan bukan cara kerja spesifik saya, melainkan hal-hal yang sama pada banyak pengguna
    • Dari interaksi itu sendiri sebenarnya tidak banyak yang bisa dipelajari, metrik evaluasi pun berpusat pada tolok ukur global, bukan pengguna individual, sehingga layanan hanya akan makin menjadi biasa-biasa saja
    • Ini strategi untuk mendapatkan lebih banyak data dengan biaya langganan yang sama, kemungkinan diskon atau refund kecil
  • Jika banyak orang menentang, saya justru melihatnya cukup positif, membiarkan LLM belajar dari percakapan masa lalu sangat penting bagi perkembangan model, saya juga sadar bahwa dalam jangka panjang berbahaya jika pengetahuan kolektif terkonsentrasi pada segelintir perusahaan, jadi pada akhirnya menurut saya satu-satunya solusi adalah model “self custody” di mana organisasi atau individu menjalankan dan melatih model mereka sendiri, tentu saja ini baru realistis jika biayanya turun banyak

    • Saya rasa pendekatan ini bagus kalau ada timbal balik, tetapi saya membayar $20 per bulan dan tetap diharapkan memberi data pelatihan gratis ke Anthropic, itu tidak masuk akal
    • Yang hilang adalah ini bukan soal “kita semua bersama-sama memajukan LLM”, melainkan pada akhirnya memberi data pelatihan untuk satu LLM tertentu saja, yaitu Claude
    • Risikonya membesar jika yang dilatih adalah data sensitif seperti source code perusahaan, skenario, atau informasi kesehatan dan keuangan
    • Saya tidak masalah jika LLM tidak berkembang jauh lebih baik
    • Bahkan kalau LLM menjadi lebih baik pun belum jelas mayoritas pengguna akan mendapat manfaat nyata yang besar, secara keseluruhan malah mungkin lebih banyak ruginya
  • Fakta bahwa kebijakan ini baru diubah sekarang justru lebih buruk; saya sejak awal memang ingin data saya dipakai untuk pelatihan, bahkan jika mereka terus belajar pun saya tidak keberatan, kalau ingin sangat terobsesi pada privasi data maka tinggal jangan pakai data Anda sendiri, saya justru berada di posisi yang sepenuhnya berlawanan dan perusahaan sama sekali tidak mempertimbangkan kecenderungan seperti ini, saya juga kesal karena di Google tidak ada opsi “silakan pakai semua data saya secara aktif untuk pelatihan”, saya sudah berkali-kali memasukkan lokasi tempat tinggal saya tetapi tetap saja mereka lupa, semuanya dirancang dengan asumsi bahwa “tak seorang pun ingin membagikan datanya”, bahkan wawancara DeepMind di bidang medis pun selalu dimulai dari ketakutan, bencana, dan obsesi atas berbagi data, saya tidak pernah mengalami kerugian besar karenanya dan justru merasa terbantu untuk kemajuan medis, di NHS saya pun selalu berusaha mencentang “gunakan data saya secara aktif”, tetapi default-nya selalu “tolak semua” sehingga pilihannya merepotkan, saya ingin ada satu master check saja untuk mengatakan “pakai semua data saya dan jangan tanya lagi”

    • Agar bisa lebih bersimpati dengan posisi seperti ini, orang harus percaya bahwa perusahaan masih melayani pengguna, tetapi dalam praktiknya informasi saya justru lebih sering dipakai untuk tujuan yang bertentangan dengan kepentingan saya sendiri, misalnya penargetan iklan produk penipuan, perusahaan AI pun kebanyakan berada di bawah pengaruh VC dan lebih berfokus pada laba daripada membangun produk untuk pengguna, saat ini kita masih berada di era “MoviePass” di mana pengguna diberi nilai lebih untuk mengejar pangsa pasar, dan ke depan kualitas layanan akan memburuk sementara potensi penyalahgunaan hanya makin besar MoviePass Wikipedia
    • Sulit memahami bahwa ada orang yang sungguh memegang pandangan seperti ini tanpa berpikir kritis
    • Jika tinggal di negara dengan sistem asuransi swasta, Anda akan cepat paham betapa pentingnya privasi data medis
    • Saya jadi bertanya-tanya apakah ini trolling, atau apakah Anda hidup di dunia ideal di mana perusahaan benar-benar menempatkan pengguna sebagai prioritas utama
    • Dalam hidup saya jelas ada nilai yang lebih penting daripada “semoga LLM sedikit lebih baik”
  • Saya percaya Anthropic, dalam jangka panjang, membidik basis pengguna yang kecil tetapi kuat secara teknis, dan secara prinsip saya akan membatalkan langganan, model open source memang belum memenuhi kebutuhan saya setara Claude (persiapan uji keamanan berbasis standar ISO/IEEE), tetapi saya akan mencari solusi

    • Pada akhirnya yang bisa dilakukan pengguna hanyalah berhenti memakai layanan, sulit berharap pada hukum atau regulasi, dan sekalipun nanti dibuat, kemungkinan hanya akan diselesaikan dengan membayar biaya tertentu saja, begitu kita menyerahkan data ke layanan web atau aplikasi, data itu harus dianggap bukan lagi milik eksklusif kita
  • Saya heran kenapa yang ditautkan bukan pengumuman resmi aslinya langsung, melainkan artikel ringkasan AI yang ditulis perplexity.ai, padahal di pengumuman aslinya tautan poin-pentingnya jelas: ada pop-up notifikasi dalam aplikasi untuk memberi tahu perubahan dan memungkinkan memilih opt-out, bisa opt-out kapan saja dari menu pengaturan, berlaku mulai 28 September, hanya berlaku saat menyetujui syarat baru dan sesi diperbarui, dan tidak berlaku untuk API/layanan eksternal, Claude Gov, Claude for Education, dan seterusnya, tautan ke sumber asli jelas lebih berguna

    • Kalau memang bisa opt-out, saya tidak terlalu peduli, tetapi saya penasaran apakah aplikasi pihak ketiga yang terhubung ke Claude API seperti JetBrains AI atau Zed memutuskan opt-in atas nama pengguna, untuk kasus berbasis API seperti ini, opsi pelatihan semacam ini sama sekali tidak boleh menjadi default opt-in, dan menurut saya seluruh industri harus mengikuti pendekatan itu
    • Pop-up aplikasi yang saya terima hanya berisi tombol dan gambar tanpa teks apa pun, saya bahkan sempat mengecek DOM karena mengira ini masalah dark mode, tetapi tidak menemukan teks sama sekali, saya mengabaikannya karena mengira hanya pengumuman fitur baru, dan kalau saya tidak kebetulan melihat kebijakan yang baru berubah ini di Reddit, saya tidak akan tahu isinya, mungkin banyak pengguna lain selain saya juga melewatkannya
    • Saya mengakui komentar lama saya tidak cocok dengan konteks dan sudah saya revisi, awalnya itu adalah tautan ke beberapa ringkasan artikel dari perplexity.ai, lalu moderator kebetulan menggantinya dengan pengumuman asli, banyak komentar muncul karena hanya membaca sekilas ringkasan AI lalu buru-buru mengambil kesimpulan, jadi justru bagus akhirnya diganti ke sumber asli
    • Menautkan sumber asli jauh lebih baik daripada menautkan berbagai ringkasan artikel