3 poin oleh GN⁺ 2026-03-07 | 1 komentar | Bagikan ke WhatsApp
  • Proyek open source chardet v7.0.0 menulis ulang seluruh kodenya dengan alat AI dan mengubah lisensi dari LGPL ke MIT
  • Penulis asli menyatakan proses ini berpotensi melanggar GPL, dan menekankan bahwa hasil yang dihasilkan AI setelah mempelajari kode asli bukan ‘implementasi clean room’
  • Metode clean room tradisional mengharuskan dua tim dipisahkan, tetapi AI melewati batas ini, sehingga statusnya sebagai karya turunan menjadi titik sengketa
  • Pada saat yang sama, Mahkamah Agung AS tidak mengakui hak cipta atas karya yang dihasilkan AI, sehingga kepemilikan dan keabsahan lisensi untuk kode baru menjadi kabur
  • Jika kasus seperti ini diakui, muncul kekhawatiran bahwa kerangka Copyleft bisa menjadi tidak efektif

Penulisan ulang berbasis AI dan perubahan lisensi pada proyek chardet

  • Library deteksi encoding karakter Python chardet awalnya merupakan port dari kode C++ Mozilla sehingga terikat pada LGPL
    • Akibatnya, pengguna korporat menghadapi ketidakpastian hukum
  • Para maintainer menggunakan Claude Code untuk menulis ulang seluruh kode dan merilis v7.0.0 di bawah lisensi MIT
  • Penulis asli a2mark mengklaim langkah ini merupakan pelanggaran LGPL
    • Ia menegaskan bahwa kode yang dimodifikasi tetap harus mengikuti LGPL, dan klaim “penulisan ulang total” tidak sah karena hasil tersebut dihasilkan dalam kondisi telah terpapar pada kode asli
    • Ia juga menyatakan bahwa pembuatan kode oleh AI tidak memberikan hak tambahan

Implementasi clean room dan cara AI melewatinya

  • Clean room rewrite tradisional terdiri dari dua tim
    • Tim A menganalisis kode asli dan menulis spesifikasi fungsi
    • Tim B menulis kode baru hanya berdasarkan spesifikasi tanpa melihat kode asli
  • Namun, jika AI menghasilkan kode setelah menerima input kode LGPL asli, pemisahan prosedural ini hilang
  • Jika AI menghasilkan output berdasarkan pembelajaran dari kode asli, hasil tersebut dapat dianggap sebagai karya turunan LGPL

Putusan Mahkamah Agung AS dan paradoks hukum

  • Pada 2 Maret 2026, Mahkamah Agung AS menolak banding terkait pengakuan hak cipta atas karya yang dihasilkan AI
    • Dengan demikian, putusan pengadilan yang lebih rendah mengenai ‘syarat penulis manusia (Human Authorship)’ tetap berlaku
  • Akibatnya, para maintainer chardet menghadapi tiga kontradiksi hukum
    • Kekosongan hak cipta: jika karya AI tidak mendapat perlindungan hak cipta, tidak ada dasar hukum untuk melakukan relicensing ke MIT
    • Jebakan karya turunan: jika output AI adalah turunan dari kode LGPL asli, maka itu merupakan pelanggaran lisensi
    • Kekosongan kepemilikan: jika AI benar-benar menghasilkan kode yang sepenuhnya baru, maka sejak dibuat kode itu menjadi public domain, sehingga lisensi MIT sendiri menjadi tidak bermakna

Dampak potensial terhadap kerangka Copyleft

  • Jika perubahan lisensi melalui penulisan ulang oleh AI diizinkan, ada kemungkinan fondasi Copyleft runtuh
  • Siapa pun dapat memasukkan proyek GPL ke LLM, memintanya “menulis ulang dengan gaya berbeda”, lalu mendistribusikannya di bawah lisensi MIT
  • Kasus chardet v7.0.0 dinilai sebagai contoh nyata pertama yang menguji batas hukum dan etika seperti ini

1 komentar

 
GN⁺ 2026-03-07
Komentar Hacker News
  • Melihat tanggapan dari maintainer, ia memang secara eksplisit meminta Claude untuk tidak merujuk kode LGPL/GPL, tetapi ada kemungkinan besar model itu sudah dilatih dengan kode tersebut
    Saat ini diketahui bahwa mustahil bagi LLM untuk sepenuhnya "melupakan" pengaruh data pelatihan
    Ada proyek ini sebagai riset terkait
    Saya adalah developer sekaligus pengacara kekayaan intelektual, dan isu seperti ini juga terus berkembang di pengadilan AS
    Sebagai catatan, paket enterprise berbayar Anthropic memberi ganti rugi kepada pengguna jika terjadi pelanggaran hak cipta, tetapi pada paket gratis/Pro/Max justru pengguna yang harus mengganti rugi Anthropic (Pasal 11 syarat layanan)

    • Maintainer mengklaim "menulis ulang dari nol", tetapi kenyataannya ia menggunakan data uji chardet apa adanya, dan merupakan orang yang telah memelihara kode asli selama lebih dari 10 tahun
      Agar benar-benar menjadi clean-room implementation, orang yang mengetahui aslinya dan orang yang menulis ulang harus dipisahkan, tetapi itu tidak terjadi di sini
    • Ada juga pembahasan di thread ini tentang topik serupa
    • Pernah ada riset untuk mencegah model menghafal teks asli secara verbatim dengan cara masking token tertentu secara acak selama pelatihan
      Idenya adalah menghapus sebagian kata sambil mempertahankan makna agar kutipan langsung bisa dihindari
    • Saya baru tahu bahwa perbedaan klausul ganti rugi per paket berbayar itu penting, dan itu terasa berguna
  • Tulisan ini salah paham tentang arti "clean-room implementation"
    Maksudnya bukan sekadar "jangan melihat kode asli", melainkan harus mengimplementasikan secara independen dari spesifikasi API
    Kode yang dihasilkan LLM kemungkinan besar mirip dengan aslinya, sehingga secara hukum berisiko dianggap sebagai salinan
    Tindakan maintainer chardet tampak sebagai relicense yang tidak bertanggung jawab secara hukum, dan ke depan bisa menimbulkan masalah rantai pasok

    • Ada bantahan dengan mengutip penjelasan hukum bahwa jika dua orang secara independen membuat kode yang sama, masing-masing bisa memiliki hak cipta sendiri
    • Hak cipta hanya menjadi penyalinan bila ada aliran informasi
      Jika hanya hasil akhirnya sama, itu sekadar hasil fungsional dan bukan pelanggaran hak cipta
    • Implementasi berbasis API pun punya risiko hukum, seperti kasus Google vs Oracle
      Lihat dokumen wiki
    • Ada juga preseden bahwa menulis ulang tanpa melihat aslinya itu legal, seperti kasus clean-room Phoenix untuk IBM PC BIOS
    • Jika mengikuti prosedur CRRE(clean-room reverse engineering) secara penuh, meski kode 1:1 sama pun secara hukum bukan penyalinan
      Namun dalam persidangan nyata, kemiripan yang tinggi tetap membuat pembelaan sulit
      Kasus chardet bisa berujung seperti kontroversi hak cipta font Jepang: meski bukan pelanggaran substantif, distribusi tetap bisa dihentikan
  • “Kode LGPL tetap LGPL”
    Kecuali semua pemegang hak cipta asli secara eksplisit setuju, perubahan lisensi tidak mungkin dilakukan
    Fakta bahwa AI mengubah kode tidak membuat hak cipta menghilang
    Jika tidak, seluruh industri hak cipta AS akan runtuh

    • Secara hukum, tidak ada atribut khusus bernama “kode LGPL”; yang penting adalah apakah tindakan penyalinan itu diizinkan
      Jika seseorang membuat karya turunan tanpa izin, lalu mencoba memberi izin ulang, itu menjadi persoalan yang rumit
    • Putusan SCOTUS justru mengarah pada penguatan hak pemegang hak cipta asli, karena menilai hasil buatan AI tidak punya kreativitas yang cukup
    • Jika benar-benar merupakan penulisan ulang clean-room berbasis AI yang sempurna, itu pada praktiknya mungkin bisa dianggap domain publik, tetapi kasus seperti itu jarang terjadi
  • Karena AI generatif, sistem hak cipta makin tertinggal zaman
    Hukum lama berasumsi model dengan tujuan tunggal, tetapi sekarang muncul model yang bisa bersaing dengan semua sumber
    Strategi lisensi GNU juga berasumsi kelangkaan kode, sementara kini pembuatan kode menjadi terlalu mudah sehingga maknanya melemah

    • Jika AI diberi kode asli lalu diminta “tolong tulis ulang”, itu adalah karya turunan, tetapi jika yang diberikan hanya deskripsi fungsinya, maka itu karya baru
      Dalam gugatan, log Claude bisa dipakai sebagai bukti
    • Ada juga kritik bahwa ini sama saja dengan mengubah persamaan sambil melanggar hukum
    • Asumsi lama bahwa ide tidak dilindungi tetapi ekspresi dilindungi mulai goyah di era AI
      Kini kita hidup di masa ketika menghasilkan ekspresi lebih mudah daripada sebelumnya
    • Ada pula pendapat bahwa perubahan ini justru sinyal positif yang meruntuhkan struktur monopoli hak cipta
    • Tujuan GNU sejak awal bukan lisensi, melainkan kebebasan pengguna
      Dunia di mana siapa pun bisa membuat kode dengan AI justru lebih dekat dengan cita-cita GNU
  • Ada keraguan terhadap klaim bahwa jika kode buatan AI benar-benar karya baru, maka ia bisa langsung menjadi domain publik saat dihasilkan
    Karena kita tidak tahu data apa yang dipelajari model, ini bisa termasuk rekayasa balik
    Karena itu, lisensi yang paling restriktif seharusnya diterapkan, dan perusahaan AI harus mengembalikan pendapatan kepada pemegang hak cipta asli

    • Jika begitu, maka “All Rights Reserved” akan berlaku sehingga output AI tidak bisa digunakan
      Kenyataannya, model yang hanya dilatih dengan data yang benar-benar diizinkan performanya sangat rendah
      Jika semua hasil generatif AI dianggap karya turunan, maka semua proyek open source akan terkontaminasi
    • Selama AI tidak menyalin kode asli hampir verbatim, pengadilan AS tidak akan mempermasalahkan hak cipta data pelatihan
      Pada akhirnya, jika tidak ada pihak selain manusia yang bisa mengklaim kepemilikan, hasil itu pada praktiknya diperlakukan seperti domain publik
    • Ada juga usulan bercanda bahwa semua kode hasil LLM sebaiknya saja dianggap GPL v3
    • Ada komentar sinis bahwa hukum baru akan berubah ketika kepentingan Disney ikut terdampak
    • Tanggung jawab hukum akan berbeda tergantung apakah AI memakai kode asli secara langsung, atau menulis ulang lewat representasi perantara
  • Sebagai pembahasan terkait, ada thread lain berjudul “No right to relicense this project”

    • Yang itu tampak hanya sebagai proyek yang dicuri, sementara kasus chardet kali ini berpusat pada legitimasi penulisan ulang dengan AI
  • Ada bantahan terhadap klaim bahwa jika kode buatan AI adalah domain publik, maka lisensi MIT sendiri menjadi tak bermakna
    Hasil AI berbeda dari sekadar penyalinan, dan tetap tunduk pada batasan lisensi dari karya asal

    • Karena hasil buatan AI secara hukum tidak diakui sebagai karya berhak cipta, tidak ada pihak yang bisa memberinya lisensi
      Misalnya, generator puisi yang dilatih dengan Project Gutenberg juga tidak bisa mengklaim hak cipta
    • Namun untuk kode, standar hukumnya masih belum jelas
      Batas antara macro, alat code generation, Intellisense, dan apa yang disebut “hasil AI” masih kabur
    • Ada juga koreksi bahwa istilah yang benar adalah “copyright”, bukan “copywrite”
    • Ada pula pendapat bahwa hasil AI tetap bisa mendapat hak cipta bila manusia terlibat secara kreatif
  • Di masa lalu pernah ada pembahasan untuk memasukkan chardet ke pustaka standar Python, tetapi
    karena kontroversi perubahan lisensi kali ini, kemungkinan itu dianggap sudah hilang
    Lihat pembahasan terkait di issue ini serta
    komentar maintainer 1, komentar 2

  • Relicense berbasis AI seperti ini bisa berarti akhir dari open source, terutama Copyleft
    Jika lisensi tidak lagi berfungsi sebagai perlindungan, developer akan kembali ke pengembangan tertutup

    • Karena itu saya juga sudah sepenuhnya berhenti merilis open source
      Model terbaru bahkan sudah mampu melakukan rekayasa balik WebAssembly, sehingga terasa seperti teori dark forest
    • Ini berlaku bukan hanya untuk open source, tetapi juga semua proyek yang membuka source
    • Tujuan GPL bukan “mencegah penggunaan yang tidak diinginkan”, melainkan mewajibkan pembukaan source saat ada modifikasi
      Jika hasil penulisan ulang AI itu GPL, maka ia juga harus dibuka
    • Ada juga sanggahan bahwa menutup “free software” justru sejak awal bertentangan dengan filosofi kebebasan
  • Saya setuju dengan kesimpulan bahwa “jika lisensi bisa diubah lewat penulisan ulang AI, maka seluruh hak cipta runtuh
    Karena hal itu bisa diterapkan pada film, musik, novel, dan semua karya kreatif lainnya
    Pada akhirnya pengadilan kemungkinan tidak akan menganggap upaya seperti ini sebagai cara sah menghindari hak cipta, dan
    saya berharap proyek chardet tidak menjadi kelinci percobaan di tengah gelombang hukum besar ini