- Komunitas Debian membahas apakah kontribusi kode berbasis AI atau LLM boleh diterima, tetapi menutup diskusi tanpa kesimpulan
- Draf yang diajukan berisi izin bersyarat, termasuk pengungkapan eksplisit saat memakai alat AI, kejelasan tanggung jawab, dan larangan penggunaan informasi sensitif
- Para pengembang berbeda pendapat soal ambiguas istilah ‘AI’, cakupan penggunaan LLM, serta isu kualitas, hak cipta, dan etika
- Sebagian menyatakan penolakan dengan alasan menghambat onboarding kontributor baru, perilaku perusahaan yang tidak etis, dan ketidakpastian hukum
- Untuk sementara, Debian akan tetap menilai per kasus berdasarkan kebijakan yang ada, sambil membuka kemungkinan diskusi lanjutan di masa depan
Gambaran umum diskusi kontribusi AI di Debian
- Debian menggelar diskusi internal soal apakah kode hasil AI dapat diterima, tetapi diskusi berakhir tanpa pengajuan general resolution (GR)
- Diskusi dimulai ketika Lucas Nussbaum mengajukan draf agar sikap terhadap kontribusi berbantuan AI diperjelas
- Ia sempat mempertimbangkan pengajuan resmi setelah mengumpulkan masukan, tetapi ketika perdebatan mereda, resolusi itu tidak jadi diajukan
- Draf tersebut mencakup kewajiban mengungkap kode yang dihasilkan alat AI, penegasan tanggung jawab kontributor, jaminan kepatuhan keamanan dan lisensi, serta larangan penggunaan informasi nonpublik
Perdebatan definisi istilah dan pembedaan teknologi
- Sejumlah pengembang menyoroti ketidakjelasan istilah ‘AI’ dan menekankan perlunya penyebutan teknologi yang lebih spesifik seperti LLM
- Russ Allbery mengatakan bahwa “AI” terlalu luas sehingga tidak cocok dijadikan dasar kebijakan
- Sean Whitton mengusulkan pembedaan penggunaan LLM berdasarkan tujuan pemakaian (code review, prototipe, kode produksi)
- Andrea Pappacoda menyebut proyek seperti Claude’s C Compiler seharusnya tidak dimasukkan ke Debian
- Sebaliknya, Nussbaum berpendapat bahwa yang penting bukan jenis alatnya, melainkan tindakan menghasilkan kode secara otomatis itu sendiri
Onboarding kontributor baru dan masalah biaya
- Simon Richter khawatir AI dapat menggantikan kesempatan belajar bagi pengembang baru
- Ia menilai AI tidak belajar meski diberi arahan, sehingga sumber daya proyek tidak berubah menjadi transfer pengetahuan yang berkelanjutan
- Ia juga mengkhawatirkan penggunaan AI bisa menimbulkan ketergantungan pada alat berbayar dan menurunkan aksesibilitas kontribusi
- Nussbaum mengakui saat ini akses gratis masih tersedia, tetapi mengakui potensi munculnya masalah biaya di masa depan
- Ia membantah dengan mengatakan AI justru bisa meningkatkan akses ke tugas-tugas yang kompleks
- Ted Ts’o menentang pelarangan pengguna AI karena bersifat kontradiktif dan bisa membatasi keberagaman kontributor
Diskusi etika, hak cipta, dan kualitas
- Matthew Vernon berpendapat Debian harus menolak secara tegas karena pengumpulan data yang tidak etis oleh perusahaan AI dan dampak lingkungannya
- Ia menyoroti efek samping seperti pelanggaran hak cipta, pembuatan gambar tanpa persetujuan, dan laporan keamanan palsu
- Jonathan Dowland mengusulkan membatasi penerimaan hasil AI sampai ketidakpastian hukum terselesaikan
- Thorsten Glaser berpendapat proyek yang memuat kode berbasis LLM harus dipindahkan ke area non-free, tetapi usulan ini tidak mendapat dukungan karena berisiko mengecualikan proyek besar seperti Linux kernel dan Python
- Allbery menilai perdebatan soal kualitas kode AI tidak terlalu bermakna, karena manusia pun bisa menulis kode yang buruk
- Bdale Garbee melihat AI sebagai tahap evolusi dan menekankan perlunya mengamati dampak jangka panjangnya
Diskusi tentang ‘preferred form of modification’
- Nussbaum menjawab bahwa input LLM (prompt) adalah bentuk modifikasi yang paling diutamakan, tetapi perdebatan berlanjut karena masalah nondeterminisme
- Sebagian berpendapat LLM bersifat nondeterministik sehingga tidak cocok untuk reproducible build
- Yang lain membantah bahwa hasilnya dapat direproduksi jika seed PRNG dan lingkungannya dipertahankan sama
- Diskusi meluas ke detail teknis seperti determinism, reproducibility, dan asinkronitas komputasi GPU
Kesimpulan: Debian menunda keputusan
- Di internal Debian, bahkan definisi kontribusi yang dihasilkan AI pun belum disepakati
- Banyak pihak menilai sekarang belum saatnya pemungutan suara resolusi, dan diskusi di tingkat mailing list lebih layak dilanjutkan
- Nussbaum menyebut “mengizinkan AI dengan pagar pengaman” sebagai kompromi yang realistis
- Untuk saat ini, penilaian per kasus berdasarkan kebijakan yang ada tetap berlaku, sementara standar penanganan model AI, kode LLM, dan kontribusi buatan AI masih belum ditetapkan
- Di tengah perubahan teknis yang kompleks dan beragamnya pendapat, status quo dinilai sebagai pilihan yang paling praktis
1 komentar
Komentar Hacker News
Saya sudah seumur hidup menulis kode, tetapi setelah cedera pergelangan tangan membuat mengetik hampir mustahil, saya bisa kembali menghasilkan kode berkualitas tinggi berkat LLM, autocompletion AI, dan pengembangan berbasis agen
Halusinasi (hallucination) AI justru membantu saya menyempurnakan prompt dan memperjelas niat
Dari sisi aksesibilitas, AI adalah alat yang esensial bagi saya, dan menurut saya yang penting bukan apakah “yang baik menutupi yang buruk”, melainkan sikap untuk menerimanya secara terintegrasi dalam ekosistem
Beberapa proyek dibanjiri PR berkualitas rendah, dan banyak kontributor tampaknya hanya ingin mengisi profil GitHub mereka
Pada akhirnya yang penting adalah apakah kontribusi dilakukan dengan itikad baik (good faith), dan proyek perlu menjelaskan batas toleransinya dengan jelas
Dengan begitu kelelahan saat review berkurang, dan saya bisa fokus memeriksa bagian yang berbeda dari ekspektasi
Sampai-sampai sekarang saya merasa tidak ingin bekerja di perusahaan yang memblokir fitur seperti ini
Aspek aksesibilitas sangat penting, tetapi masalah hak cipta dan tanggung jawab masih tetap rumit
Saya rasa review PR pada akhirnya adalah masalah kepercayaan. Yaitu percaya bahwa pengirim sudah berusaha sebaik mungkin
Yang utama bukan apakah AI dipakai, melainkan apakah alat itu digunakan dengan bertanggung jawab
Banyak akun palsu bisa saja dikendalikan oleh satu penyerang, dan kode yang dibuat LLM tampak baik-baik saja bagi LLM, sehingga verifikasi jadi lebih sulit
Pada akhirnya kita berada di situasi di mana menilai PR menjadi lebih sulit daripada membuatnya
Perdebatan soal kualitas kontribusi AI terasa aneh. Kualitas selalu merupakan tanggung jawab pengirim
Memakai AI tidak membuat seseorang bebas dari tanggung jawab, dan justru kebijakan pembatasan penggunaan AI bisa merugikan kontributor beritikad baik
Saya memelihara fork 300 commit dengan AI, tetapi saya meninjau setiap baris dan bisa menjelaskan semuanya
Pada akhirnya yang penting adalah kualitas partisipasi, bukan jenis alatnya
Dalam jangka panjang, jika AI terus berkembang, rasanya akan makin sulit membedakan hasil manusia dan AI
Pada akhirnya jika hasilnya mencapai tingkat “cukup bagus”, itu akan terlihat seperti buatan manusia, dan saya penasaran apa yang akan terjadi saat itu
Saat ini sebagian besar PR AI masih berkualitas rendah, tetapi sekalipun kualitasnya meningkat, kontribusi itu tetap bisa ditolak karena alasan hukum atau ideologis
Abstraksi yang terlalu dipecah-pecah atau refactor yang tidak perlu sering muncul
Tidak masalah jika manusia memakai AI sebagai alat, tetapi menurut saya AI masih jauh dari level menggantikan manusia
Namun penyalahgunaan vibecoding memang sedang menaikkan biaya review dan maintenance secara tajam
Saya berada di kubu “kalau berjalan, itu sudah cukup”
Jika kode memenuhi standar fungsi, dokumentasi, pengujian, dan ketepatan, maka tidak penting apakah itu ditulis AI atau manusia
Yang penting adalah mendefinisikan dengan jelas apa arti “berjalan”, dan memiliki sistem review yang kompeten
AI bisa menghasilkan ribuan baris kode sekaligus lalu mengajukan PR, tetapi pada akhirnya itu harus dibatasi ke ukuran yang masih bisa direview
Meskipun AI lolos pengujian, tetap berbahaya jika penulisnya tidak memahami isinya
Diperlukan pembatasan ruang lingkup pekerjaan dan riwayat kontribusi manual sebelumnya
Kebijakan Debian sederhana — “jangan sampai ada yang tersakiti”. Itu prinsip yang baik
Ada pertanyaan apakah Debian punya aturan yang melarang mengajukan kode orang lain seolah-olah itu milik sendiri
Secara praktis itu ilegal sebagai pelanggaran hak cipta, jadi meski tidak tertulis secara eksplisit, aturan itu ada secara implisit
LLM bukan manusia, tetapi hak cipta atas kode yang dihasilkannya tetap tidak jelas
Vibecoding untuk web app atau mobile app mungkin tidak terlalu masalah, tetapi memakai AI untuk perangkat lunak infrastruktur inti seperti kernel, compiler, atau sistem operasi itu berbahaya
Di area seperti ini dibutuhkan bahasa dengan verifikasi formal seperti Ada/SPARK
Rasanya menakutkan membayangkan suatu hari harus naik mobil dengan sistem pengereman buatan AI
Dibanding “mengirim kode ala YOLO”, kode “saya memang pakai AI tetapi sudah saya verifikasi semaksimal mungkin” jauh lebih bisa diterima