- Proyek open source chardet v7.0.0 menulis ulang seluruh kodenya dengan alat AI dan mengubah lisensi dari LGPL ke MIT
- Penulis asli menyatakan proses ini berpotensi melanggar GPL, dan menekankan bahwa hasil yang dihasilkan AI setelah mempelajari kode asli bukan ‘implementasi clean room’
- Metode clean room tradisional mengharuskan dua tim dipisahkan, tetapi AI melewati batas ini, sehingga statusnya sebagai karya turunan menjadi titik sengketa
- Pada saat yang sama, Mahkamah Agung AS tidak mengakui hak cipta atas karya yang dihasilkan AI, sehingga kepemilikan dan keabsahan lisensi untuk kode baru menjadi kabur
- Jika kasus seperti ini diakui, muncul kekhawatiran bahwa kerangka Copyleft bisa menjadi tidak efektif
Penulisan ulang berbasis AI dan perubahan lisensi pada proyek chardet
- Library deteksi encoding karakter Python chardet awalnya merupakan port dari kode C++ Mozilla sehingga terikat pada LGPL
- Akibatnya, pengguna korporat menghadapi ketidakpastian hukum
- Para maintainer menggunakan Claude Code untuk menulis ulang seluruh kode dan merilis v7.0.0 di bawah lisensi MIT
- Penulis asli a2mark mengklaim langkah ini merupakan pelanggaran LGPL
- Ia menegaskan bahwa kode yang dimodifikasi tetap harus mengikuti LGPL, dan klaim “penulisan ulang total” tidak sah karena hasil tersebut dihasilkan dalam kondisi telah terpapar pada kode asli
- Ia juga menyatakan bahwa pembuatan kode oleh AI tidak memberikan hak tambahan
Implementasi clean room dan cara AI melewatinya
- Clean room rewrite tradisional terdiri dari dua tim
- Tim A menganalisis kode asli dan menulis spesifikasi fungsi
- Tim B menulis kode baru hanya berdasarkan spesifikasi tanpa melihat kode asli
- Namun, jika AI menghasilkan kode setelah menerima input kode LGPL asli, pemisahan prosedural ini hilang
- Jika AI menghasilkan output berdasarkan pembelajaran dari kode asli, hasil tersebut dapat dianggap sebagai karya turunan LGPL
Putusan Mahkamah Agung AS dan paradoks hukum
- Pada 2 Maret 2026, Mahkamah Agung AS menolak banding terkait pengakuan hak cipta atas karya yang dihasilkan AI
- Dengan demikian, putusan pengadilan yang lebih rendah mengenai ‘syarat penulis manusia (Human Authorship)’ tetap berlaku
- Akibatnya, para maintainer chardet menghadapi tiga kontradiksi hukum
- Kekosongan hak cipta: jika karya AI tidak mendapat perlindungan hak cipta, tidak ada dasar hukum untuk melakukan relicensing ke MIT
- Jebakan karya turunan: jika output AI adalah turunan dari kode LGPL asli, maka itu merupakan pelanggaran lisensi
- Kekosongan kepemilikan: jika AI benar-benar menghasilkan kode yang sepenuhnya baru, maka sejak dibuat kode itu menjadi public domain, sehingga lisensi MIT sendiri menjadi tidak bermakna
Dampak potensial terhadap kerangka Copyleft
- Jika perubahan lisensi melalui penulisan ulang oleh AI diizinkan, ada kemungkinan fondasi Copyleft runtuh
- Siapa pun dapat memasukkan proyek GPL ke LLM, memintanya “menulis ulang dengan gaya berbeda”, lalu mendistribusikannya di bawah lisensi MIT
- Kasus chardet v7.0.0 dinilai sebagai contoh nyata pertama yang menguji batas hukum dan etika seperti ini
1 komentar
Komentar Hacker News
Melihat tanggapan dari maintainer, ia memang secara eksplisit meminta Claude untuk tidak merujuk kode LGPL/GPL, tetapi ada kemungkinan besar model itu sudah dilatih dengan kode tersebut
Saat ini diketahui bahwa mustahil bagi LLM untuk sepenuhnya "melupakan" pengaruh data pelatihan
Ada proyek ini sebagai riset terkait
Saya adalah developer sekaligus pengacara kekayaan intelektual, dan isu seperti ini juga terus berkembang di pengadilan AS
Sebagai catatan, paket enterprise berbayar Anthropic memberi ganti rugi kepada pengguna jika terjadi pelanggaran hak cipta, tetapi pada paket gratis/Pro/Max justru pengguna yang harus mengganti rugi Anthropic (Pasal 11 syarat layanan)
Agar benar-benar menjadi clean-room implementation, orang yang mengetahui aslinya dan orang yang menulis ulang harus dipisahkan, tetapi itu tidak terjadi di sini
Idenya adalah menghapus sebagian kata sambil mempertahankan makna agar kutipan langsung bisa dihindari
Tulisan ini salah paham tentang arti "clean-room implementation"
Maksudnya bukan sekadar "jangan melihat kode asli", melainkan harus mengimplementasikan secara independen dari spesifikasi API
Kode yang dihasilkan LLM kemungkinan besar mirip dengan aslinya, sehingga secara hukum berisiko dianggap sebagai salinan
Tindakan maintainer chardet tampak sebagai relicense yang tidak bertanggung jawab secara hukum, dan ke depan bisa menimbulkan masalah rantai pasok
Jika hanya hasil akhirnya sama, itu sekadar hasil fungsional dan bukan pelanggaran hak cipta
Lihat dokumen wiki
Namun dalam persidangan nyata, kemiripan yang tinggi tetap membuat pembelaan sulit
Kasus chardet bisa berujung seperti kontroversi hak cipta font Jepang: meski bukan pelanggaran substantif, distribusi tetap bisa dihentikan
“Kode LGPL tetap LGPL”
Kecuali semua pemegang hak cipta asli secara eksplisit setuju, perubahan lisensi tidak mungkin dilakukan
Fakta bahwa AI mengubah kode tidak membuat hak cipta menghilang
Jika tidak, seluruh industri hak cipta AS akan runtuh
Jika seseorang membuat karya turunan tanpa izin, lalu mencoba memberi izin ulang, itu menjadi persoalan yang rumit
Karena AI generatif, sistem hak cipta makin tertinggal zaman
Hukum lama berasumsi model dengan tujuan tunggal, tetapi sekarang muncul model yang bisa bersaing dengan semua sumber
Strategi lisensi GNU juga berasumsi kelangkaan kode, sementara kini pembuatan kode menjadi terlalu mudah sehingga maknanya melemah
Dalam gugatan, log Claude bisa dipakai sebagai bukti
Kini kita hidup di masa ketika menghasilkan ekspresi lebih mudah daripada sebelumnya
Dunia di mana siapa pun bisa membuat kode dengan AI justru lebih dekat dengan cita-cita GNU
Ada keraguan terhadap klaim bahwa jika kode buatan AI benar-benar karya baru, maka ia bisa langsung menjadi domain publik saat dihasilkan
Karena kita tidak tahu data apa yang dipelajari model, ini bisa termasuk rekayasa balik
Karena itu, lisensi yang paling restriktif seharusnya diterapkan, dan perusahaan AI harus mengembalikan pendapatan kepada pemegang hak cipta asli
Kenyataannya, model yang hanya dilatih dengan data yang benar-benar diizinkan performanya sangat rendah
Jika semua hasil generatif AI dianggap karya turunan, maka semua proyek open source akan terkontaminasi
Pada akhirnya, jika tidak ada pihak selain manusia yang bisa mengklaim kepemilikan, hasil itu pada praktiknya diperlakukan seperti domain publik
Sebagai pembahasan terkait, ada thread lain berjudul “No right to relicense this project”
Ada bantahan terhadap klaim bahwa jika kode buatan AI adalah domain publik, maka lisensi MIT sendiri menjadi tak bermakna
Hasil AI berbeda dari sekadar penyalinan, dan tetap tunduk pada batasan lisensi dari karya asal
Misalnya, generator puisi yang dilatih dengan Project Gutenberg juga tidak bisa mengklaim hak cipta
Batas antara macro, alat code generation, Intellisense, dan apa yang disebut “hasil AI” masih kabur
Di masa lalu pernah ada pembahasan untuk memasukkan chardet ke pustaka standar Python, tetapi
karena kontroversi perubahan lisensi kali ini, kemungkinan itu dianggap sudah hilang
Lihat pembahasan terkait di issue ini serta
komentar maintainer 1, komentar 2
Relicense berbasis AI seperti ini bisa berarti akhir dari open source, terutama Copyleft
Jika lisensi tidak lagi berfungsi sebagai perlindungan, developer akan kembali ke pengembangan tertutup
Model terbaru bahkan sudah mampu melakukan rekayasa balik WebAssembly, sehingga terasa seperti teori dark forest
Jika hasil penulisan ulang AI itu GPL, maka ia juga harus dibuka
Saya setuju dengan kesimpulan bahwa “jika lisensi bisa diubah lewat penulisan ulang AI, maka seluruh hak cipta runtuh”
Karena hal itu bisa diterapkan pada film, musik, novel, dan semua karya kreatif lainnya
Pada akhirnya pengadilan kemungkinan tidak akan menganggap upaya seperti ini sebagai cara sah menghindari hak cipta, dan
saya berharap proyek chardet tidak menjadi kelinci percobaan di tengah gelombang hukum besar ini