Anthropic ungkap deteksi dan respons terhadap serangan distilasi ilegal Claude oleh perusahaan AI Tiongkok
(anthropic.com)Anthropic secara resmi mengumumkan bahwa tiga perusahaan AI Tiongkok, yaitu DeepSeek, MiniMax, dan Moonshot AI, mengekstrak kemampuan Claude secara ilegal.
Skala serangan
Ketiga perusahaan tersebut membuat total 24.000 akun palsu dan menghasilkan lebih dari 16 juta percakapan dengan Claude, yang jelas melanggar ketentuan layanan Anthropic dan pembatasan akses regional.
Karakteristik tiap perusahaan adalah sebagai berikut. DeepSeek berfokus memperoleh kemampuan terkait logika dasar dan kueri sensitif kebijakan melalui lebih dari 150.000 percakapan. MiniMax menghasilkan 13 juta percakapan, lebih dari 80% dari keseluruhan, dengan fokus pada agentic coding, penggunaan tool, dan orkestrasi, dan Anthropic mendeteksinya secara real time sehingga mengetahui hal itu sebelum MiniMax merilis modelnya. Secara khusus, ketika Anthropic merilis model baru, MiniMax menunjukkan kelincahan dengan mengalihkan setengah trafiknya ke model baru dalam waktu 24 jam.
Metode serangan
Karena akses ke Claude diblokir di Tiongkok atas alasan keamanan nasional, mereka mengakali pembatasan ini melalui layanan proxy yang mengoperasikan puluhan ribu akun palsu (arsitektur “hydra cluster”). Ada juga kasus di mana satu jaringan proxy tunggal menjalankan lebih dari 20.000 akun palsu secara bersamaan, dan trafik tersebut dikirim bercampur dengan trafik pengguna biasa agar lebih sulit dideteksi.
Respons Anthropic
Anthropic membangun classifier seperti deteksi berbasis perilaku (behavioral fingerprinting) dan deteksi pola ekstraksi chain-of-thought, serta membagikan indikator teknis kepada perusahaan AI lain, penyedia cloud, dan otoritas terkait. Selain itu, Anthropic memperkuat verifikasi pada jalur yang sering disalahgunakan untuk pembuatan akun palsu, seperti akun pendidikan dan akun startup.
Perspektif keamanan nasional
Anthropic menyebut ini bukan sekadar pelanggaran ketentuan layanan, melainkan ancaman terhadap keamanan nasional. Model yang didistilasi secara ilegal berpotensi besar kehilangan pengaman untuk mencegah pengembangan senjata biokimia dan memblokir serangan siber, dan menurut Anthropic hal ini melemahkan kebijakan kontrol ekspor AI Amerika Serikat. Dengan menyatakan bahwa “tidak ada satu pun perusahaan yang bisa menyelesaikannya sendiri”, Anthropic menyerukan respons bersama dari industri, penyedia cloud, dan para pembuat kebijakan.
Sebelumnya OpenAI juga telah melaporkan tindakan serupa DeepSeek kepada Kongres, sehingga diskusi mengenai respons bersama di seluruh industri AI Amerika Serikat tampaknya akan mulai berlangsung secara serius.
8 komentar
Yang benar-benar memalukan dari OpenAI dan Anthropic adalah mereka memakai teknologi dasar/riset yang dibuat Google dan menarik dataset lewat pembajakan, tapi di saat yang sama melobi Kongres untuk mencoba mengkriminalkan model open-source—benar-benar menunjukkan seperti apa keserakahan itu.
Aneh sekali bahwa justru big tech mapan seperti Google dan perusahaan AI Tiongkok yang lebih aktif membuka riset; ini benar-benar seperti lelucon yang ironis.
Jadi sebenarnya siapa yang mengembangkan teknologi demi kepentingan umat manusia... Munafik dan menipu.
Saya setuju. Terutama akhir-akhir ini, setiap langkah Anthropic benar-benar terlihat memalukan. Rasanya seperti muncul pihak yang bahkan lebih parah daripada Google.
Karena mereka sendiri juga saling bertingkah begini, ini jelas menunjukkan bahwa omong-omong soal keamanan nasional pada akhirnya tidak lebih dari sekadar framing...
Mungkin memang terasa sayang pada apa yang dibangun sendiri, dan apa yang sudah dikerjakan orang lain justru terlihat sepele.
Rasanya juga seperti era bersaing secara adil mungkin sudah berlalu..
Orang-orang yang bahkan tidak mempertanyakan dosa dari apa yang mereka curi..
https://cnbc.com/2026/02/…
Melihat mereka memasok ke kementerian pertahanan negaranya sendiri lalu baru sekarang mempermasalahkannya, menurut saya aturan yang menentang penggunaan untuk tujuan militer hanyalah dalih belaka dan tidak konsisten. Mereka adalah kelompok yang berbeda antara tampilan luar dan isi hatinya. Rasanya seperti melihat orang yang berkata tidak tertarik pada uang, padahal sebenarnya tergila-gila pada uang.
Kalau dipikir-pikir, sebagian besar LLM juga sudah dibuat dari tulisan dan data orang lain yang sudah ada... Sampai batas mana ini bisa dianggap sebagai pembajakan?
Ya, tentu saja si pecandu perhatian Elon Musk juga ikut angkat bicara. https://x.com/elonmusk/status/2026052687423562228
"Anthropic bersalah karena mencuri data pelatihan dalam skala besar, dan seharusnya membayar ganti rugi miliaran dolar atas pencurian tersebut. Ini adalah fakta yang tak terbantahkan."
Rasanya ini seperti situasi di mana mereka terlebih dulu membesarkan model secara ilegal, lalu belakangan cukup berdamai dengan membayar sejumlah kecil uang..