10 poin oleh GN⁺ 9 hari lalu | 1 komentar | Bagikan ke WhatsApp
  • Ini adalah dokumen resmi kernel Linux dari Linus Torvalds, yang menyatakan bahwa saat berkontribusi dengan alat coding AI, proses pengembangan kernel dan gaya penulisan kode yang sudah ada harus tetap diikuti apa adanya
  • AI tidak dapat menambahkan tag Signed-off-by — secara hukum hanya manusia yang dapat memberikan pengesahan, dan pengembang manusia menanggung sepenuhnya peninjauan kode hasil AI, kepatuhan lisensi, serta tanggung jawab hukum
  • Pada kode yang dibantu AI, harus dicantumkan nama model:versi serta alat analisis dalam format seperti Assisted-by: Claude:claude-3-opus coccinelle sparse
    • Alat pengembangan dasar seperti git, gcc, dan make dikecualikan dari kewajiban pencantuman
  • Semua kontribusi harus kompatibel dengan GPL-2.0-only dan pengidentifikasi lisensi SPDX wajib disertakan

1 komentar

 
GN⁺ 9 hari lalu
Komentar Hacker News
  • Aturan dasarnya adalah AI boleh dipakai, tetapi tanggung jawab atas commit sepenuhnya ada pada manusia
    Kedengarannya masuk akal bahwa kode harus memenuhi persyaratan lisensi. Ini adalah hal yang kemungkinan besar disetujui oleh kebanyakan pengembang

    • Ini benar-benar kebijakan yang normal, membosankan, dan sangat masuk akal
      Namun tetap mengejutkan bahwa hal seperti ini perlu dinyatakan secara eksplisit
      Belakangan ini banyak orang mengunggah kode buatan AI ke open source tanpa benar-benar memahaminya, lalu saat muncul masalah mereka menghindari tanggung jawab dengan berkata, “AI yang melakukannya”
      Dalam situasi seperti ini, wajar jika maintainer bersikap skeptis terhadap kode AI
    • Di komunitas Linux ada banyak orang yang sangat menentang commit berbantuan AI
      Ada yang menganggap Torvalds pengkhianat karena kebijakan ini, dan ada juga yang berkata mereka tidak akan pernah berkontribusi lagi jika kode buatan AI digabungkan
    • Jika output AI bukan GNU GPL, muncul pertanyaan apakah kode itu otomatis menjadi kode GPL hanya karena ditambahkan oleh pengembang Linux
    • AI hanyalah alat (tool), jadi tidak jelas mengapa harus dicantumkan secara khusus sebagai author
  • Baru saja melihat Greg KH menerapkan reviewer AI Sashiko ke semua patch, jadi kebijakan kali ini terasa agak kontras
    Reviewer AI memang benar-benar membantu, tetapi pembahasannya masih berkutat pada “tanggung jawab atas kode AI”
    Bagian yang benar-benar berbahaya adalah race condition atau masalah lock yang salah namun disampaikan AI dengan penuh percaya diri
    Menarik untuk dipertanyakan apakah kebijakan ini adalah solusi jangka panjang, atau hanya langkah sementara sebelum sistem seperti Sashiko memperkuat penyaringan di sisi maintainer

  • Kebijakan yang diumumkan Torvalds secara jelas menetapkan bahwa manusia harus meninjau, menandatangani, dan bertanggung jawab atas kode AI
    Tampaknya sudah melewati tinjauan pengacara, dan bisa menjadi standar ke depan untuk pengembangan berbantuan AI

    • Namun dokumen sebenarnya ditulis oleh Sasha Levin berdasarkan diskusi para maintainer utama Linux
    • Signed-off-by pada dasarnya sudah menjadi prosedur formalitas, dan banyak kontributor pemula menambahkannya tanpa tahu artinya
      Patch saya sendiri pernah otomatis memuat nama saya ketika dimasukkan ke refactoring orang lain
      Secara praktis siapa pun bisa menambahkan Co-developed-by atau Signed-off-by, dan daya ikat hukumnya hampir tidak ada
  • Karena LLM tidak bisa menyebutkan sumber asal, muncul pertanyaan bagaimana kepatuhan lisensi bisa dijamin

    • Di Jerman, output LLM tidak dianggap sebagai objek perlindungan hak cipta
      Author-nya bisa jadi pengguna AI, bisa juga pengembang model, sehingga ketidakpastian hukumnya besar
      Dalam situasi seperti ini, ada kemungkinan lisensi kernel sendiri akan melemah dalam jangka panjang
      Hal terkait dibahas dalam artikel KPMG Law tentang AI dan hak cipta
  • Terasa aneh jika tag “Assisted-by:” dipakai ulang untuk menandai model AI
    Awalnya itu tag untuk menunjukkan bantuan dari manusia, tetapi sekarang jadi punya dua makna dan membingungkan
    Biasanya lebih umum memakai tag terpisah seperti “AI-assistant:”

  • Arah yang benar bagi open source adalah memperjelas hubungan antara manusia dan agen, sambil memastikan manusia memikul tanggung jawab verifikasi akhir
    Terima kasih kepada Linus

  • Menyenangkan melihat prinsip yang masuk akal bahwa bahkan untuk kode yang dibuat AI, tanggung jawab tetap ada pada manusia

  • Rasanya seperti versi terbalik dari pepatah lama, “tukang yang buruk menyalahkan alat”
    Pada akhirnya, pemilihan dan penggunaan alat tetap menjadi tanggung jawab manusia

  • Kebijakan ini tidak akan melindungi Linux dari tanggung jawab pelanggaran hak cipta
    Ini mirip toko ritel yang berkata, “kami percaya pemasok sudah menghilangkan THC”
    Menyatakan diri bebas tanggung jawab tidak serta-merta menghapus tanggung jawab hukum

    • Namun kernel Linux bukan entitas hukum, melainkan sekumpulan para kontributor
      Bahkan jika ada kode yang melanggar, target gugatan kemungkinan adalah pengguna Linux atau perusahaan
      Secara realistis, kemungkinan gugatan seperti itu terjadi kecil
    • Banyak perusahaan memakai kode AI, tetapi bukan berarti semuanya benar-benar menanggung tanggung jawab hukum
    • Proyek open source, tidak seperti toko, tidak memberikan jaminan konsumen
      Analogi itu sendiri kurang tepat
    • Sebenarnya kode AI tidak otomatis lebih berbahaya
      Manusia yang berniat buruk juga bisa copy-paste kode privat lalu menandatanganinya
      Pada akhirnya masalahnya adalah manusia yang berbohong
  • Ada klausul yang menyebutkan, “semua kode harus kompatibel dengan GPL-2.0-only”,
    tetapi muncul pertanyaan bagaimana hal itu bisa dijamin jika AI dilatih menggunakan kode dengan berbagai lisensi

    • Jawabannya sederhana. Orang yang memakai AI bertanggung jawab
      Jika AI salah, tanggung jawabnya tetap pada manusia. Jika merasa tidak aman, jangan gunakan AI
    • Faktanya, pengembang manusia juga tidak hanya pernah melihat kode GPL
    • Penafsiran hak cipta adalah urusan pengadilan. Itu bukan sesuatu yang perlu diprediksi Torvalds
      Namun jika AI merujuk ke codebase lain saat runtime, risikonya bisa lebih besar
    • Ada yang berpendapat bahwa kode buatan AI adalah public domain, jadi bukan pelanggaran GPL
      Namun pendekatan seperti ini justru bisa mengaburkan makna lisensi
      Catatan seperti “100% ditulis AI tetapi sudah saya tinjau” saja lemah secara hukum
      Bahkan ada usulan untuk membuka issue relicensing ke public domain pada proyek “100% vibecoded” guna menyoroti masalah ini