- Library deteksi encoding karakter Python chardet direimplementasikan menggunakan AI, dan kasus perubahan dari LGPL ke MIT memicu perdebatan etika open source
- Muncul pendapat yang mengakui legalitas reimplementasi AI, tetapi tulisan ini menekankan bahwa izin secara hukum dan legitimasi sosial adalah hal yang berbeda
- Reimplementasi historis GNU dan Linux merupakan perluasan dari kepemilikan privat menuju kebebasan, sedangkan kasus ini justru bekerja ke arah melemahkan perlindungan atas commons
- Syarat berbagi dalam GPL bukan pembatasan, melainkan mekanisme untuk menjamin berbagi secara timbal balik, dan kebebasan ala MIT menimbulkan struktur asimetris yang manfaatnya hanya mengalir ke pihak dengan modal lebih besar
- Justru di era ketika AI makin memudahkan pengelakan terhadap copyleft, prinsip bahwa siapa pun yang mengambil dari commons harus mengembalikannya ke commons menjadi semakin penting
Reimplementasi AI pada chardet 7.0 dan perubahan lisensi
- Library chardet untuk Python ditulis ulang sepenuhnya dengan menggunakan Claude dari Anthropic
- Versi baru ini 48 kali lebih cepat dari sebelumnya dan menambahkan dukungan multicore
- Kemiripan kode diukur kurang dari 1,3%, sehingga dianggap sebagai karya independen
- Lisensi diubah dari LGPL menjadi lisensi MIT, sehingga kewajiban membuka source code hilang
- Penulis asli, Mark Pilgrim, mengangkat kemungkinan pelanggaran LGPL melalui issue di GitHub
- Ia berpendapat bahwa reimplementasi yang dilakukan ketika AI telah terekspos pada basis kode lama sulit dianggap sebagai pendekatan ‘clean room’
Reaksi yang bertolak belakang dari tokoh open source
- Armin Ronacher (pencipta Flask) menyambut relicensing ini dan berargumen bahwa GPL bertentangan dengan semangat berbagi
- Salvatore Sanfilippo (antirez, pencipta Redis) membela legalitas reimplementasi AI dengan merujuk pada sejarah GNU dan hukum hak cipta
- Keduanya sama-sama menyamakan izin hukum dengan legitimasi, sementara tulisan ini menyoroti jarak antara hukum dan etika sebagai masalah utama
Sejarah GNU dan perbedaan arah
- Reimplementasi GNU adalah proses mengubah perangkat lunak proprietari menjadi perangkat lunak bebas
- Intinya bukan sekadar izin hukum, tetapi arah etis berupa perluasan commons
- Sebaliknya, kasus chardet bekerja dengan arah menghapus perlindungan copyleft dan membongkar pagar pelindung commons
- Turunan berbasis chardet 7.0 tidak lagi memikul kewajiban membuka source code
- antirez mengabaikan pertentangan arah ini dan menggunakan preseden GNU sebagai dasar yang keliru
GPL dan makna berbagi
- Ronacher berpendapat bahwa GPL membatasi berbagi, tetapi tulisan ini menyebutnya sebagai kesalahpahaman mendasar
- GPL hanya menuntut pembukaan source code saat distribusi, dan tidak membatasi penggunaan pribadi
- Ini adalah mekanisme untuk menjamin timbal balik dalam berbagi, bukan menekan berbagi
- Lisensi MIT memang memberi kebebasan kepada penerima kode, tetapi tidak mewajibkan kontribusi dikembalikan
- Akibatnya, manfaat cenderung terkonsentrasi pada pihak dengan modal dan tenaga kerja lebih besar
- Contoh penyerapan kode GPL oleh perusahaan pada 1990-an menunjukkan perlunya penguatan copyleft
Contoh kontradiktif: Vercel dan Cloudflare
- Vercel mereimplementasikan GNU Bash dengan AI, lalu menunjukkan ketidaksenangan ketika Cloudflare mereimplementasikan Next.js
- Karena Next.js berlisensi MIT, tidak ada masalah hukum
- Ini memperlihatkan kontradiksi antara mengatakan bahwa “mengubah GPL menjadi MIT adalah kemenangan berbagi” sambil tetap menolak ketika kode sendiri direimplementasikan
- Ronacher mengakui hal ini tetapi tidak mengubah kesimpulannya, sehingga dinilai sebagai kesimpulan yang disesuaikan dengan posisi, bukan logika
Pembedaan antara legalitas dan legitimasi
- Hukum hanya mengatur tindakan yang tidak dilarang, tetapi tidak menjamin bahwa tindakan itu benar
- Ada tindakan yang legal tetapi antisosial, seperti penghindaran pajak atau kenaikan harga obat
- LGPL pada chardet bukan sekadar perangkat hukum, melainkan janji sosial selama 12 tahun
- Sebuah kontrak berbasis kepercayaan: “jika Anda memakai kode ini, Anda membagikannya dengan syarat yang sama”
- Sekalipun reimplementasi AI secara hukum dianggap karya baru, tindakan itu tetap merusak kepercayaan dengan para kontributor
- Zoë Kooyman dari FSF secara tegas menyatakan bahwa “tidak memberikan kepada orang lain hak yang telah Anda terima adalah tindakan antisosial”
Asimetri sudut pandang
- antirez dan Ronacher adalah tokoh sentral open source, sehingga reimplementasi AI berarti lingkungan yang menguntungkan bagi mereka sendiri
- Sebaliknya, bagi para kontributor chardet, ini berarti hilangnya perlindungan atas kontribusi mereka
- Mengabaikan asimetri ini sambil berkata “tidak ada masalah secara hukum” dinilai bukan analisis, melainkan rasionalisasi
Masa depan copyleft dan penilaian sosial
- Bruce Perens memperingatkan bahwa “ekonomi pengembangan perangkat lunak telah berakhir”
- antirez menanggapi dengan “kita harus beradaptasi”, dan Ronacher menyebutnya “menarik”
- Namun inti persoalannya adalah pertanyaan: “apakah copyleft justru makin dibutuhkan ketika makin mudah dilewati oleh AI?”
- Tulisan ini menjawab dengan tegas: “ya”
- GPL tidak melindungi kelangkaan kode, melainkan kebebasan pengguna
- Semakin mudah direimplementasikan dengan AI, semakin kecil pula friksi untuk menghapus copyleft
- Prinsip “siapa pun yang mengambil dari commons harus mengembalikannya ke commons” adalah norma sosial yang tidak bergantung pada waktu atau perubahan teknologi
- Hukum berubah lambat, tetapi penilaian nilai oleh komunitas selalu bergerak lebih dulu
- Evolusi dari GPLv2 → v3 → AGPL juga menunjukkan bahwa penilaian komunitas mendahului hukum
- Di era AI, perlindungan copyleft perlu diperluas hingga mencakup test suite dan spesifikasi API
- Pada akhirnya, yang harus didahulukan bukan putusan hukum, melainkan penilaian sosial, dan ditekankan bahwa
legalitas tidak dapat menggantikan legitimasi
1 komentar
Komentar Hacker News
Jika sekarang kita bisa menghasilkan source code hanya dari spesifikasi (specification), maka aset intelektual utama proyek GPL pada akhirnya berada di spesifikasinya
Dulu kita berjuang agar meniru software perusahaan tetap diizinkan secara hukum, tetapi sekarang situasinya justru seperti menyerahkan hak itu sendiri dan memberi pemilik hak kekayaan intelektual lebih banyak kendali
Arus seperti ini tidak akan menghasilkan dampak yang anti-korporasi besar atau ramah berbagi. Pada akhirnya, pihak yang akan menjalankan kekuasaan ini adalah korporasi besar
Sekarang zamannya sudah benar-benar berbeda. Klaim yang dikutip itu hanya mengulang poin yang sudah pernah dikritik.
Jika setuju dengan diskusi ini, sebaiknya baca artikel aslinya langsung
Hal yang menurutku menarik adalah apakah fenomena ini, melampaui sekadar hak cipta, bisa meruntuhkan konsep kekayaan intelektual (IP) itu sendiri
IP dibangun di atas asumsi bahwa ‘kreativitas itu sulit’, tetapi LLM sekarang sudah mengotomatisasi hampir semua penciptaan pengetahuan, seperti pembuktian matematika dan perancangan obat baru
Kalau begitu, apakah masih ada alasan memberi hak monopoli pada karya yang tidak lagi ‘sulit’ dibuat? Pada akhirnya AI bahkan akan memperlakukan paten hanya sebagai sekumpulan batasan lalu mengakalinya
Secara hukum saat ini, output AI tidak dilindungi hak cipta, dan hanya bisa dilindungi jika ada campur tangan manusia yang substansial
Hasil dari upaya manusia perlu dilindungi agar korporasi besar tidak bisa mengambilnya secara gratis
Hanya saja, yang menyelesaikannya mungkin bukan manusia
Sejak komputer muncul, konsep itu sebenarnya sudah kehilangan makna, tetapi tetap hidup lewat lobi.
Sekarang AI mungkin akan memaku paku terakhir ke petinya.
Pada akhirnya yang penting adalah weights model, dan itu harus dibuka agar semua orang bisa mengaksesnya, atau dipaksa terbuka sekalipun
Seseorang seharusnya benar-benar menguji ini
Masukkan source code Minecraft yang bocor ke Copilot, buat salinan yang sepenuhnya identik dalam bahasa lain, lalu rilis sebagai open source
Aku penasaran apakah Microsoft akan menyebut itu sebagai pelanggaran hak cipta
Sebaiknya instruksinya adalah “implementasikan Minecraft dari nol”.
Hanya saja, tekstur atau modelnya tidak boleh dipakai ulang, jadi AI harus membuat yang baru
Contohmu adalah kasus dengan kemungkinan pelanggaran yang jauh lebih jelas
Bagaimana kalau kita memakai LLM untuk menghapus lisensi dari source code Windows yang bocor lalu membuat kode untuk WINE?
Belakangan, upaya dekompilasi biner dengan LLM juga ramai dibahas
Dua tokoh dari kubu open source ikut masuk ke perdebatan ini, tetapi keduanya bukan pengacara IP
Richard Fontana, yang memang seorang pengacara, ikut terlibat, tetapi issue-nya ditutup
Di issue GitHub, ia menekankan bahwa “hasil buatan AI pada umumnya tidak dilindungi hak cipta”
Artinya, jika seseorang hanya menulis prompt tanpa memodifikasi kodenya secara langsung, maka tindakan menempelkan lisensi MIT pada kode itu sendiri punya implikasi hukum yang besar
Ini justru lebih mirip dengan fotografi. Kamera tidak memegang hak cipta, tetapi manusia bisa
Sama seperti karya tetap diakui sebagai kreasi manusia meskipun tidak ada intervensi sampai tingkat piksel
Jika melihat sejarah GPL, ini adalah upaya melawan hak cipta dengan hak cipta
Nama ‘Copyleft’ sendiri sudah memuat makna itu
Namun AI sekarang sedang mengikis hak cipta itu sendiri.
Kini bukan hanya program GPL, tetapi software tertutup pun bisa diimplementasikan ulang dengan AI
Kalau begitu, GNU seharusnya meninggalkan GPL dan menjadikan LLM sebagai senjata baru
Ini justru melemahkan kebebasan open source dan memindahkan kekuasaan ke korporasi besar
Selain itu, LLM dilatih dari kode milik banyak relawan, tetapi keuntungannya diambil korporasi besar
Pada akhirnya daya tarik open source bisa menurun, dan penghormatan terhadap lisensi juga berisiko hilang
Terutama, ia menjamin hak pengguna untuk memodifikasi software yang berjalan di perangkat mereka sendiri
Tetapi jika tool, key, atau spesifikasi tertentu dibatasi, implementasi ulang menjadi tidak mungkin
Pada akhirnya ini bisa saja berarti kita meminjam senjata milik perusahaan jahat untuk bertarung
Menurutku pelanggaran lisensi sebenarnya sudah terjadi
Sebagian besar model besar melanggar terms of service saat mengumpulkan data
Karena itu, model yang dilatih dengan kode GPL bisa dianggap terinfeksi (infect) oleh kewajiban lisensi terbuka
Secara hukum, yang penting adalah ① apakah data diperoleh secara sah, ② apakah output merupakan ekspresi orisinal
Dalam kasus ini, 98.7% telah dipastikan sebagai kode baru
Poin sesungguhnya adalah seberapa transformatif output-nya.
Ini juga merupakan isu inti dalam gugatan NYT vs OpenAI
Blanchard mengatakan bahwa ia “memasukkan hanya API dan test ke Claude lalu mengimplementasikannya ulang”,
tetapi itu terdengar seperti mengatakan “aku melempar cat ke kanvas sambil menutup mata, lalu hasilnya berbentuk Mickey Mouse”
Karena dia sebelumnya adalah maintainer kode tersebut, sulit menganggapnya benar-benar independen
Jika ia memasukkan kode asli dan mengatur agar AI menyalinnya, itu tetap merupakan pelanggaran hak cipta
Jika AI hanya alat, tanggung jawab ada pada pengguna; jika AI adalah agen independen, maka ia pun menjadi pelaku pelanggaran
Asalkan elemen ekspresinya tidak disalin mentah-mentah
Jika Blanchard mempublikasikan semua prompt-nya, siapa pun akan bisa mereproduksi hasil yang sama
Setahuku, yang dia klaim hanyalah bahwa Claude tidak melihat kodenya
Menurut artikel, Claude hanya diberi API dan test untuk mengimplementasikan ulang library tersebut
Namun GPL2 juga menganggap test suite sebagai bagian dari source code
Kalau begitu, jika Claude memakai test tersebut, hasilnya bisa dianggap sebagai karya turunan berbasis karya asli menurut LGPL 2.1
Hanya saja, mungkin tidak memungkinkan untuk mendistribusikan ulang test itu di bawah lisensi MIT
Jadi pendekatan yang realistis adalah mendistribusikan hanya kodenya dengan MIT, dan test-nya secara paralel di bawah LGPL
Test case juga bisa dipandang sebagai bagian dari penggunaan API
Di perusahaan kami, tim engineering mulai memakai implementasi ulang dengan AI untuk menggunakan tool yang tidak disetujui tim security
Tim security menerapkan kebijakan ‘default deny’, sedangkan tim engineering menerapkan kebijakan ‘gunakan AI secara agresif’
Akibatnya muncul struktur insentif aneh: membuat ulang tool internal dengan AI
Kalau ingin hasil yang berbeda, desain insentif-nya harus diubah lebih dulu
Jika AI bisa berulang kali menulis kode keamanan dengan baik,
mengapa orang percaya AI yang sama tidak bisa memverifikasi keamanan software pihak ketiga?
Aku ingin tahu kenapa ada asimetri antara produksi dan analisis
Syarat GPL hanya aktif pada saat distribusi (distribution)
Saat kode yang dimodifikasi didistribusikan atau disediakan sebagai layanan jaringan, source harus dibuka
Namun penyediaan layanan jaringan sendiri bukan distribusi, sehingga AGPL dibuat untuk menutup celah itu