1 poin oleh GN⁺ 2025-08-30 | 1 komentar | Bagikan ke WhatsApp
  • Jika menggunakan layanan Claude dari Anthropic, mulai sekarang data Anda akan digunakan untuk pelatihan AI
  • Data input pengguna nantinya akan dipakai untuk melatih model guna pengembangan sistem AI di masa depan
  • Data lama tidak termasuk; yang berlaku adalah data baru yang dimasukkan mulai sekarang
  • Data yang dihapus atau dijadikan privat tidak akan digunakan untuk pelatihan
  • Pengguna dapat memilih opsi menolak pelatihan (opt-out) melalui pengaturan

Perubahan kebijakan pengumpulan data dan pelatihan AI di Claude

  • Pengguna akun Claude yang dioperasikan oleh Anthropic kini perlu memahami bahwa semua data yang dimasukkan ke layanan akan digunakan untuk pelatihan AI
  • Kebijakan ini berlaku untuk data baru yang dimasukkan ke depan, dan tidak berlaku untuk data yang diberikan sebelumnya
  • Data yang dihapus oleh pengguna dan data yang ditandai sebagai privat tidak akan dimasukkan ke dataset pelatihan AI karena diproses secara terpisah
  • Melalui panduan layanan, Anthropic juga menjelaskan bahwa jika pengguna menginginkannya, mereka dapat menolak penggunaan data untuk pelatihan melalui menu pengaturan (opt-out)
  • Saat ini diterapkan kebijakan yang berupaya menjaga keseimbangan antara pengembangan layanan AI dan perlindungan data pengguna

1 komentar

 
GN⁺ 2025-08-30
Komentar Hacker News
  • Sejujurnya, perusahaan-perusahaan ini sudah mencuri data dalam skala terabyte dan juga tidak pernah membuka dataset mereka, jadi apa pun yang saya masukkan ke layanan ini, saya harus berasumsi mereka pasti mengumpulkan semuanya untuk training
    • Membaca tulisan yang diposting bebas di internet sekarang dianggap pencurian? Menurut saya ini penafsiran hak kepemilikan yang terlalu keras
    • Tidak perlu berasumsi seburuk itu, kita tidak boleh menganggap semua orang akan bertindak dengan niat jahat, dan kita juga harus waspada agar cara pikir seperti ini tidak menjadi sesuatu yang umum
    • Saya rasa komentar di atas adalah penafsiran yang paling masuk akal
  • Saya sejak awal sudah berasumsi semua data memang sudah dipakai untuk training AI, jadi saya penasaran apakah cuma saya yang berpikir begitu
    • Tantangan terbesar ilmu komputer pada 2025 mungkin adalah meyakinkan orang bahwa 'kami tidak melatih AI dengan semua data pribadi Anda', jujur saja saya jadi berpikir mungkin Anthropic juga memutuskan untuk sekalian memakainya karena orang-orang toh tidak percaya data mereka benar-benar tidak dipakai, malah kalau memberi pilihan yang bisa dikendalikan sendiri oleh pengguna, kepercayaan justru bisa meningkat
    • Saya tidak terlalu paham pola pikir seperti ini, kenapa harus langsung berasumsi begitu, saat pertama kali memakai Claude, cukup luangkan beberapa menit untuk memeriksa pengaturan privasi, saya selalu mengeceknya setiap kali pertama kali memakai layanan apa pun, kalau sinis dan langsung menganggap semua pasti dibagikan, jadinya malah tidak memeriksa apa pun, padahal tinggal masuk ke Settings -> Privacy dan langsung terlihat
    • Sama naifnya dengan orang-orang yang percaya kalau menghapus dokumen dari server Google/META/Apple/Microsoft berarti benar-benar hilang, Google mungkin punya salinan cadangan dari semua informasi yang mereka indeks selama 20 tahun terakhir, sampai-sampai Internet Archive pun bakal iri
    • Saya memang sudah menganggap akun gratis dipakai untuk training AI, dan data yang benar-benar tidak ingin saya tinggalkan ya tinggal saya hapus dari layanannya, tapi saya tidak paham kenapa akun berbayar juga ikut kena dan datanya disimpan sampai 5 tahun
    • Tentu masih ada orang yang percaya pada nilai dasar berupa janji sosial dalam masyarakat kita, tetapi setelah melihat janji-janji itu dibelokkan dan diabaikan setiap kali terasa tidak nyaman, tidak heran kalau sudut pandang sinis jadi umum, masalahnya adalah bagaimana sudut pandang seperti itu memengaruhi pilihan nyata, ujung-ujungnya yang dulu terbuka jadi makin tertutup, karena itu saya mencoba memakai versi lokal sendiri dan membuat sesuatu yang bisa saya kendalikan lebih baik
  • Pada akhirnya nanti sepertinya akan terungkap bahwa data semua orang dipakai untuk training, terlepas dari siapa yang sudah opt-out atau tidak, saya masih ingin terus memakai Claude, tetapi saya tidak ingin semua solusi yang saya hasilkan menyebar seperti pengetahuan publik
    • Ada pertanyaan apakah pernah ada perusahaan sebelumnya yang mengabaikan permintaan opt-out, terdengar seperti ada sesuatu yang masih mengganjal di benak
    • Saya tidak masalah kalau perusahaan/AI jadi sedikit lebih baik lewat input saya, yang saya tidak suka adalah kalau itu terhubung langsung dengan nama atau informasi saya, akan bagus kalau Chatham House Rule diterapkan (Chatham House Rule: isi percakapan boleh dibagikan, tetapi identitas pembicara tetap anonim)
    • Saya penasaran kenapa Anda tidak ingin membagikan insight Anda, menurut saya berbagi secara langsung lebih baik daripada data mengalir keluar lewat training AI, hanya saja cara Anda menyampaikannya terasa lebih kuat
  • Sepertinya pada akhirnya data untuk training memang mulai kurang, saya penasaran sejauh mana mereka bisa bergantung pada data dan jenis 'pengetahuan' apa yang bisa diekstrak, saya hampir tidak pernah memberi feedback dan sebagian besar hasil yang saya terima salah (5 dari 6 kali), jadi saya tidak tahu bagaimana mereka bisa menilai hasil itu bernilai
    • Seperti Google, mereka bisa memakai metode bahwa jika pengguna mengklik tautan tertentu lalu tidak melakukan pencarian tambahan, hasil itu dianggap membantu, diamnya saya juga mungkin dianggap sebagai sinyal lemah bahwa saya puas (tentu saja tergantung pola penggunaan pengguna)
    • Pada akhirnya, apa pun yang dipakai untuk training belum tentu punya nilai nyata, kalau saya menerima jawaban yang salah tetapi tidak menunjukkan ketidakpuasan, perusahaan mungkin juga tidak terlalu peduli
  • Ini mengingatkan saya bahwa kejadian ini muncul tepat setelah publikasi AI Safety Index, laporan itu memuji Anthropic karena tidak menggunakan data pengguna untuk training, jadi saya juga sempat lebih percaya dan ingin memakainya
    https://futureoflife.org/ai-safety-index-summer-2025/
  • AI terbaru bergantung pada data, mempercayai janji bahwa percakapan kita tidak akan dipakai untuk training itu seperti memberi makanan favoritnya kepada seorang rakus lalu meminta janji agar dia sama sekali tidak memakannya, ya bagaimanapun kalau percakapannya tidak bocor sepenuhnya ke luar sih saya masih oke, saya memang sudah memakai layanan seperti ini dengan menerima syarat tersebut
    • Kita tidak boleh membiarkan hal seperti ini dianggap normal, kewajiban kontraktual harus ditegakkan demi melindungi privasi dan hak asasi kita
  • Di aplikasi iOS, begitu login langsung muncul pop-up pengaturan opt-out, memang agak mengganggu tetapi cara penanganannya cukup oke
    • Saya justru ingin LLM seperti Claude menjadi lebih pintar lewat percakapan atau feedback saya, sangat frustrasi karena tidak ada memori jangka panjang per pengguna atau riwayat percakapan yang tertanam, saya sudah 6 bulan meminta fitur opt-in ke Anthropic, tentu saya juga paham isu privasinya, tetapi di bidang keahlian saya (riset kognitif, genetika, filsafat saraf), Claude memang perlu jadi lebih pintar, dan saya ingin membagikan informasi yang saya punya agar bisa mendapatkan partner berpikir yang benar-benar bagus
  • Sulit dipercaya, ini dari sisi privasi adalah masalah etika yang setara dengan keputusan-keputusan Meta yang paling terkenal buruk, rollout-nya benar-benar kacau, modal seperti ini muncul begitu saja di jendela percakapan yang sudah ada, padahal saya tidak pernah menyetujui penggunaan data, ide, gaji, atau riwayat keluarga saya, saya khawatir nanti pihak PR akan bilang "Anda kan sudah opt-in lewat modal itu?"
    https://imgur.com/afqMi0Z
  • Saya tidak tahu data apa yang mereka pakai untuk training, tetapi saya membatalkan Claude untuk kedua kalinya, bug UI di antarmuka web dan kedipan terus-menerus juga menyebalkan, dan belakangan jawaban AI terasa terlalu negatif dan pongah, ini tidak saya alami dulu atau di LLM lain, mungkin mereka gagal saat mencoba menyesuaikan model setelah dulu dikritik karena terlalu menjilat, sekarang malah menebak-nebak perilaku saya dan mengkritik melampaui konteks teknis, kalau pakai Gemini sepertinya selalu menganggap saya marah pada jawabannya, meski setidaknya tidak kasar, jadi sekarang saya pindah lagi ke chatgpt sambil terus melakukan uji banding
    • Untuk para power user, dibutuhkan dial yang bisa diatur seperti API (menjilat/keamanan/menonaktifkan mode perlindungan anak, dan sebagainya), akan lebih bagus lagi kalau ada sakelar pembuka kunci seperti di microwave
  • Ada tulisan serupa dengan ini di sini
    • Setidaknya postingan ini bermakna karena memuat teks asli pengumuman yang benar-benar dikirim Anthropic, ringkasan dari Perplexity mungkin lebih nyaman dibaca oleh non-ahli