- Ini adalah dokumen resmi kernel Linux dari Linus Torvalds, yang menyatakan bahwa saat berkontribusi dengan alat coding AI, proses pengembangan kernel dan gaya penulisan kode yang sudah ada harus tetap diikuti apa adanya
- AI tidak dapat menambahkan tag Signed-off-by — secara hukum hanya manusia yang dapat memberikan pengesahan, dan pengembang manusia menanggung sepenuhnya peninjauan kode hasil AI, kepatuhan lisensi, serta tanggung jawab hukum
- Pada kode yang dibantu AI, harus dicantumkan nama model:versi serta alat analisis dalam format seperti
Assisted-by: Claude:claude-3-opus coccinelle sparse
- Alat pengembangan dasar seperti git, gcc, dan make dikecualikan dari kewajiban pencantuman
- Semua kontribusi harus kompatibel dengan GPL-2.0-only dan pengidentifikasi lisensi SPDX wajib disertakan
1 komentar
Komentar Hacker News
Aturan dasarnya adalah AI boleh dipakai, tetapi tanggung jawab atas commit sepenuhnya ada pada manusia
Kedengarannya masuk akal bahwa kode harus memenuhi persyaratan lisensi. Ini adalah hal yang kemungkinan besar disetujui oleh kebanyakan pengembang
Namun tetap mengejutkan bahwa hal seperti ini perlu dinyatakan secara eksplisit
Belakangan ini banyak orang mengunggah kode buatan AI ke open source tanpa benar-benar memahaminya, lalu saat muncul masalah mereka menghindari tanggung jawab dengan berkata, “AI yang melakukannya”
Dalam situasi seperti ini, wajar jika maintainer bersikap skeptis terhadap kode AI
Ada yang menganggap Torvalds pengkhianat karena kebijakan ini, dan ada juga yang berkata mereka tidak akan pernah berkontribusi lagi jika kode buatan AI digabungkan
Baru saja melihat Greg KH menerapkan reviewer AI Sashiko ke semua patch, jadi kebijakan kali ini terasa agak kontras
Reviewer AI memang benar-benar membantu, tetapi pembahasannya masih berkutat pada “tanggung jawab atas kode AI”
Bagian yang benar-benar berbahaya adalah race condition atau masalah lock yang salah namun disampaikan AI dengan penuh percaya diri
Menarik untuk dipertanyakan apakah kebijakan ini adalah solusi jangka panjang, atau hanya langkah sementara sebelum sistem seperti Sashiko memperkuat penyaringan di sisi maintainer
Kebijakan yang diumumkan Torvalds secara jelas menetapkan bahwa manusia harus meninjau, menandatangani, dan bertanggung jawab atas kode AI
Tampaknya sudah melewati tinjauan pengacara, dan bisa menjadi standar ke depan untuk pengembangan berbantuan AI
Signed-off-bypada dasarnya sudah menjadi prosedur formalitas, dan banyak kontributor pemula menambahkannya tanpa tahu artinyaPatch saya sendiri pernah otomatis memuat nama saya ketika dimasukkan ke refactoring orang lain
Secara praktis siapa pun bisa menambahkan
Co-developed-byatauSigned-off-by, dan daya ikat hukumnya hampir tidak adaKarena LLM tidak bisa menyebutkan sumber asal, muncul pertanyaan bagaimana kepatuhan lisensi bisa dijamin
Author-nya bisa jadi pengguna AI, bisa juga pengembang model, sehingga ketidakpastian hukumnya besar
Dalam situasi seperti ini, ada kemungkinan lisensi kernel sendiri akan melemah dalam jangka panjang
Hal terkait dibahas dalam artikel KPMG Law tentang AI dan hak cipta
Terasa aneh jika tag “Assisted-by:” dipakai ulang untuk menandai model AI
Awalnya itu tag untuk menunjukkan bantuan dari manusia, tetapi sekarang jadi punya dua makna dan membingungkan
Biasanya lebih umum memakai tag terpisah seperti “AI-assistant:”
Arah yang benar bagi open source adalah memperjelas hubungan antara manusia dan agen, sambil memastikan manusia memikul tanggung jawab verifikasi akhir
Terima kasih kepada Linus
Menyenangkan melihat prinsip yang masuk akal bahwa bahkan untuk kode yang dibuat AI, tanggung jawab tetap ada pada manusia
Rasanya seperti versi terbalik dari pepatah lama, “tukang yang buruk menyalahkan alat”
Pada akhirnya, pemilihan dan penggunaan alat tetap menjadi tanggung jawab manusia
Kebijakan ini tidak akan melindungi Linux dari tanggung jawab pelanggaran hak cipta
Ini mirip toko ritel yang berkata, “kami percaya pemasok sudah menghilangkan THC”
Menyatakan diri bebas tanggung jawab tidak serta-merta menghapus tanggung jawab hukum
Bahkan jika ada kode yang melanggar, target gugatan kemungkinan adalah pengguna Linux atau perusahaan
Secara realistis, kemungkinan gugatan seperti itu terjadi kecil
Analogi itu sendiri kurang tepat
Manusia yang berniat buruk juga bisa copy-paste kode privat lalu menandatanganinya
Pada akhirnya masalahnya adalah manusia yang berbohong
Ada klausul yang menyebutkan, “semua kode harus kompatibel dengan GPL-2.0-only”,
tetapi muncul pertanyaan bagaimana hal itu bisa dijamin jika AI dilatih menggunakan kode dengan berbagai lisensi
Jika AI salah, tanggung jawabnya tetap pada manusia. Jika merasa tidak aman, jangan gunakan AI
Namun jika AI merujuk ke codebase lain saat runtime, risikonya bisa lebih besar
Namun pendekatan seperti ini justru bisa mengaburkan makna lisensi
Catatan seperti “100% ditulis AI tetapi sudah saya tinjau” saja lemah secara hukum
Bahkan ada usulan untuk membuka issue relicensing ke public domain pada proyek “100% vibecoded” guna menyoroti masalah ini