1 poin oleh GN⁺ 2026-03-12 | 1 komentar | Bagikan ke WhatsApp
  • Komunitas Debian membahas apakah kontribusi kode berbasis AI atau LLM boleh diterima, tetapi menutup diskusi tanpa kesimpulan
  • Draf yang diajukan berisi izin bersyarat, termasuk pengungkapan eksplisit saat memakai alat AI, kejelasan tanggung jawab, dan larangan penggunaan informasi sensitif
  • Para pengembang berbeda pendapat soal ambiguas istilah ‘AI’, cakupan penggunaan LLM, serta isu kualitas, hak cipta, dan etika
  • Sebagian menyatakan penolakan dengan alasan menghambat onboarding kontributor baru, perilaku perusahaan yang tidak etis, dan ketidakpastian hukum
  • Untuk sementara, Debian akan tetap menilai per kasus berdasarkan kebijakan yang ada, sambil membuka kemungkinan diskusi lanjutan di masa depan

Gambaran umum diskusi kontribusi AI di Debian

  • Debian menggelar diskusi internal soal apakah kode hasil AI dapat diterima, tetapi diskusi berakhir tanpa pengajuan general resolution (GR)
    • Diskusi dimulai ketika Lucas Nussbaum mengajukan draf agar sikap terhadap kontribusi berbantuan AI diperjelas
    • Ia sempat mempertimbangkan pengajuan resmi setelah mengumpulkan masukan, tetapi ketika perdebatan mereda, resolusi itu tidak jadi diajukan
  • Draf tersebut mencakup kewajiban mengungkap kode yang dihasilkan alat AI, penegasan tanggung jawab kontributor, jaminan kepatuhan keamanan dan lisensi, serta larangan penggunaan informasi nonpublik

Perdebatan definisi istilah dan pembedaan teknologi

  • Sejumlah pengembang menyoroti ketidakjelasan istilah ‘AI’ dan menekankan perlunya penyebutan teknologi yang lebih spesifik seperti LLM
    • Russ Allbery mengatakan bahwa “AI” terlalu luas sehingga tidak cocok dijadikan dasar kebijakan
    • Sean Whitton mengusulkan pembedaan penggunaan LLM berdasarkan tujuan pemakaian (code review, prototipe, kode produksi)
    • Andrea Pappacoda menyebut proyek seperti Claude’s C Compiler seharusnya tidak dimasukkan ke Debian
  • Sebaliknya, Nussbaum berpendapat bahwa yang penting bukan jenis alatnya, melainkan tindakan menghasilkan kode secara otomatis itu sendiri

Onboarding kontributor baru dan masalah biaya

  • Simon Richter khawatir AI dapat menggantikan kesempatan belajar bagi pengembang baru
    • Ia menilai AI tidak belajar meski diberi arahan, sehingga sumber daya proyek tidak berubah menjadi transfer pengetahuan yang berkelanjutan
    • Ia juga mengkhawatirkan penggunaan AI bisa menimbulkan ketergantungan pada alat berbayar dan menurunkan aksesibilitas kontribusi
  • Nussbaum mengakui saat ini akses gratis masih tersedia, tetapi mengakui potensi munculnya masalah biaya di masa depan
    • Ia membantah dengan mengatakan AI justru bisa meningkatkan akses ke tugas-tugas yang kompleks
  • Ted Ts’o menentang pelarangan pengguna AI karena bersifat kontradiktif dan bisa membatasi keberagaman kontributor

Diskusi etika, hak cipta, dan kualitas

  • Matthew Vernon berpendapat Debian harus menolak secara tegas karena pengumpulan data yang tidak etis oleh perusahaan AI dan dampak lingkungannya
    • Ia menyoroti efek samping seperti pelanggaran hak cipta, pembuatan gambar tanpa persetujuan, dan laporan keamanan palsu
  • Jonathan Dowland mengusulkan membatasi penerimaan hasil AI sampai ketidakpastian hukum terselesaikan
  • Thorsten Glaser berpendapat proyek yang memuat kode berbasis LLM harus dipindahkan ke area non-free, tetapi usulan ini tidak mendapat dukungan karena berisiko mengecualikan proyek besar seperti Linux kernel dan Python
  • Allbery menilai perdebatan soal kualitas kode AI tidak terlalu bermakna, karena manusia pun bisa menulis kode yang buruk
  • Bdale Garbee melihat AI sebagai tahap evolusi dan menekankan perlunya mengamati dampak jangka panjangnya

Diskusi tentang ‘preferred form of modification’

  • Nussbaum menjawab bahwa input LLM (prompt) adalah bentuk modifikasi yang paling diutamakan, tetapi perdebatan berlanjut karena masalah nondeterminisme
    • Sebagian berpendapat LLM bersifat nondeterministik sehingga tidak cocok untuk reproducible build
    • Yang lain membantah bahwa hasilnya dapat direproduksi jika seed PRNG dan lingkungannya dipertahankan sama
    • Diskusi meluas ke detail teknis seperti determinism, reproducibility, dan asinkronitas komputasi GPU

Kesimpulan: Debian menunda keputusan

  • Di internal Debian, bahkan definisi kontribusi yang dihasilkan AI pun belum disepakati
  • Banyak pihak menilai sekarang belum saatnya pemungutan suara resolusi, dan diskusi di tingkat mailing list lebih layak dilanjutkan
  • Nussbaum menyebut “mengizinkan AI dengan pagar pengaman” sebagai kompromi yang realistis
  • Untuk saat ini, penilaian per kasus berdasarkan kebijakan yang ada tetap berlaku, sementara standar penanganan model AI, kode LLM, dan kontribusi buatan AI masih belum ditetapkan
  • Di tengah perubahan teknis yang kompleks dan beragamnya pendapat, status quo dinilai sebagai pilihan yang paling praktis

1 komentar

 
GN⁺ 2026-03-12
Komentar Hacker News
  • Saya sudah seumur hidup menulis kode, tetapi setelah cedera pergelangan tangan membuat mengetik hampir mustahil, saya bisa kembali menghasilkan kode berkualitas tinggi berkat LLM, autocompletion AI, dan pengembangan berbasis agen
    Halusinasi (hallucination) AI justru membantu saya menyempurnakan prompt dan memperjelas niat
    Dari sisi aksesibilitas, AI adalah alat yang esensial bagi saya, dan menurut saya yang penting bukan apakah “yang baik menutupi yang buruk”, melainkan sikap untuk menerimanya secara terintegrasi dalam ekosistem

    • Seperti yang kamu bilang, ada orang yang memakai AI secara masuk akal, tetapi berbahaya jika menganggap semua pengguna seperti itu
      Beberapa proyek dibanjiri PR berkualitas rendah, dan banyak kontributor tampaknya hanya ingin mengisi profil GitHub mereka
      Pada akhirnya yang penting adalah apakah kontribusi dilakukan dengan itikad baik (good faith), dan proyek perlu menjelaskan batas toleransinya dengan jelas
    • Saya juga memakai pendekatan serupa. Alih-alih menyerahkan masalah sulit ke AI, saya memberikan solusi teknis yang memang sudah ingin saya implementasikan lalu memintanya menghasilkan kode
      Dengan begitu kelelahan saat review berkurang, dan saya bisa fokus memeriksa bagian yang berbeda dari ekspektasi
    • Saya juga mengalami nyeri pergelangan tangan, jadi saya memakai kombinasi Whisper + LLM untuk input suara dan perapian hasilnya. Email, penulisan dokumen, sampai pengelompokan struk jadi terotomatisasi dan ini juga membantu kesehatan saya
      Sampai-sampai sekarang saya merasa tidak ingin bekerja di perusahaan yang memblokir fitur seperti ini
    • Saya juga punya RSI, dan autocompletion AI sangat membantu. Tetapi AI berbasis agen tidak terlalu berguna di lingkungan C++/Rust real-time
      Aspek aksesibilitas sangat penting, tetapi masalah hak cipta dan tanggung jawab masih tetap rumit
    • Jika seseorang menandatangani kodenya dan berani mempertaruhkan keahlian serta reputasinya, maka AI hanyalah alat autocompletion tingkat lanjut dan seharusnya dianggap pengecualian dari aturan “no AI”
  • Saya rasa review PR pada akhirnya adalah masalah kepercayaan. Yaitu percaya bahwa pengirim sudah berusaha sebaik mungkin
    Yang utama bukan apakah AI dipakai, melainkan apakah alat itu digunakan dengan bertanggung jawab

    • Tentu saja ada juga pelaku jahat. Ancaman persisten tingkat lanjut (APT) seperti serangan XZ adalah kenyataan di open source
      Banyak akun palsu bisa saja dikendalikan oleh satu penyerang, dan kode yang dibuat LLM tampak baik-baik saja bagi LLM, sehingga verifikasi jadi lebih sulit
      Pada akhirnya kita berada di situasi di mana menilai PR menjadi lebih sulit daripada membuatnya
    • Tetapi saya tetap berpikir semua kode harus diperlakukan sebagai kuda Troya potensial dan diverifikasi
    • Proses review harus cukup kokoh untuk menangkap kesalahan, baik dari manusia maupun AI
  • Perdebatan soal kualitas kontribusi AI terasa aneh. Kualitas selalu merupakan tanggung jawab pengirim
    Memakai AI tidak membuat seseorang bebas dari tanggung jawab, dan justru kebijakan pembatasan penggunaan AI bisa merugikan kontributor beritikad baik

    • Masalahnya adalah kode LLM bisa terlihat bagus di permukaan, padahal sebenarnya diimplementasikan tanpa pemahaman
    • Yang penting bukan alatnya, tetapi apakah kontributor bisa menjelaskan dan membela kodenya sendiri saat review
      Saya memelihara fork 300 commit dengan AI, tetapi saya meninjau setiap baris dan bisa menjelaskan semuanya
      Pada akhirnya yang penting adalah kualitas partisipasi, bukan jenis alatnya
    • Satu-satunya hal yang benar-benar tak berubah adalah tanggung jawab. Kalau mengirim patch, maka harus bertanggung jawab juga atas desain dan perawatannya
    • Tetapi AI berisiko membuat orang menghindari tanggung jawab itu
  • Dalam jangka panjang, jika AI terus berkembang, rasanya akan makin sulit membedakan hasil manusia dan AI
    Pada akhirnya jika hasilnya mencapai tingkat “cukup bagus”, itu akan terlihat seperti buatan manusia, dan saya penasaran apa yang akan terjadi saat itu

    • Memang tidak bisa dicegah sepenuhnya, tetapi saya rasa menetapkan kebijakan lebih baik daripada tidak melakukan apa-apa
      Saat ini sebagian besar PR AI masih berkualitas rendah, tetapi sekalipun kualitasnya meningkat, kontribusi itu tetap bisa ditolak karena alasan hukum atau ideologis
    • Kontribusi AI pada akhirnya harus dipandang sebagai perpanjangan individu. Akunnya harus benar-benar milik orang nyata, dan reputasinya dipertaruhkan
    • Jika tiba-tiba ada kode dalam jumlah besar yang diunggah, orang bisa curiga itu dibuat dengan AI. Yang penting bukan apakah AI dipakai, tetapi apakah masalahnya benar-benar dipahami
    • AI masih sebatas prediksi tingkat token, jadi tetap bisa dibedakan dari kode yang dirancang manusia
      Abstraksi yang terlalu dipecah-pecah atau refactor yang tidak perlu sering muncul
      Tidak masalah jika manusia memakai AI sebagai alat, tetapi menurut saya AI masih jauh dari level menggantikan manusia
      Namun penyalahgunaan vibecoding memang sedang menaikkan biaya review dan maintenance secara tajam
    • Pada akhirnya, kode dari orang yang memakai AI dengan benar tidak bisa dibedakan dari kode manusia. Masalahnya bukan pada alat, tetapi pada cara pemakaiannya
  • Saya berada di kubu “kalau berjalan, itu sudah cukup”
    Jika kode memenuhi standar fungsi, dokumentasi, pengujian, dan ketepatan, maka tidak penting apakah itu ditulis AI atau manusia
    Yang penting adalah mendefinisikan dengan jelas apa arti “berjalan”, dan memiliki sistem review yang kompeten

  • AI bisa menghasilkan ribuan baris kode sekaligus lalu mengajukan PR, tetapi pada akhirnya itu harus dibatasi ke ukuran yang masih bisa direview
    Meskipun AI lolos pengujian, tetap berbahaya jika penulisnya tidak memahami isinya
    Diperlukan pembatasan ruang lingkup pekerjaan dan riwayat kontribusi manual sebelumnya

  • Kebijakan Debian sederhana — “jangan sampai ada yang tersakiti”. Itu prinsip yang baik

  • Ada pertanyaan apakah Debian punya aturan yang melarang mengajukan kode orang lain seolah-olah itu milik sendiri
    Secara praktis itu ilegal sebagai pelanggaran hak cipta, jadi meski tidak tertulis secara eksplisit, aturan itu ada secara implisit
    LLM bukan manusia, tetapi hak cipta atas kode yang dihasilkannya tetap tidak jelas

  • Vibecoding untuk web app atau mobile app mungkin tidak terlalu masalah, tetapi memakai AI untuk perangkat lunak infrastruktur inti seperti kernel, compiler, atau sistem operasi itu berbahaya
    Di area seperti ini dibutuhkan bahasa dengan verifikasi formal seperti Ada/SPARK
    Rasanya menakutkan membayangkan suatu hari harus naik mobil dengan sistem pengereman buatan AI

    • Setuju. Sistem inti butuh perhatian sangat teliti, dan LLM masih kurang dalam hal kehati-hatian maupun risiko hak cipta
    • Sebenarnya saya dengar industri otomotif sudah punya banyak kode yang digenerasikan otomatis bahkan sebelum era AI
  • Dibanding “mengirim kode ala YOLO”, kode “saya memang pakai AI tetapi sudah saya verifikasi semaksimal mungkin” jauh lebih bisa diterima