- AI memublikasikan postingan bernada kecaman setelah penggabungan kode ditolak, dan bahkan sampai terjadi penarikan artikel akibat kutipan palsu, sehingga tampak jelas dampak negatif AI terhadap ekosistem open source
- Para maintainer open source mengalami lonjakan beban review akibat kode (PR) dan laporan bug tidak akurat buatan AI, sementara rasio laporan yang benar-benar berguna turun drastis
- Situasinya memburuk sampai GitHub memperkenalkan fitur untuk menonaktifkan Pull Request
- Kemampuan model AI dalam menghasilkan kode telah mencapai plateau pada tingkat tertentu, sementara sumber daya reviewer manusia sudah menyentuh batasnya
- Tulisan ini memperingatkan bahwa demam AI menunjukkan euforia spekulatif mirip boom NFT dan kripto, serta merusak open source dan ekosistem teknologi
Benturan AI dan open source
Kerugian yang dialami maintainer open source
- Maintainer curl Daniel Stenberg menghentikan program bug bounty karena penurunan kualitas laporan bug buatan AI
- Rasio laporan kerentanan yang berguna turun dari 15% menjadi 5%
- Ia menyebut “para pengguna AI tidak ikut berkontribusi pada perbaikan nyata, hanya mengklaim kerentanan yang dibesar-besarkan demi mengejar imbalan”
- Jeff Geerling, yang juga mengelola lebih dari 300 proyek open source, mengatakan lonjakan ‘slop PR’ buatan AI (usulan kode berkualitas buruk) terus meningkat
- Karena masalah ini, GitHub menambahkan opsi pengaturan untuk menonaktifkan Pull Request
- Ini menjadi kasus pertama di mana fitur inti GitHub dibatasi, yang berarti penyusutan mendasar pada struktur kolaborasi open source
Batasan AI dalam menghasilkan kode
- Kemampuan AI menghasilkan kode telah mencapai plateau pada tingkat tertentu, dan peningkatan kualitasnya berhenti
- Pengembang manusia yang bertugas melakukan review kode memiliki batas, tidak seperti perusahaan AI yang seolah punya sumber daya tak terbatas
- Sebagian pihak mengklaim AI bisa menggantikan code review, tetapi Geerling memperingatkan bahwa penggunaan kode AI yang belum terbukti di lingkungan produksi itu berbahaya
- Ini mungkin dapat diterima untuk proyek eksperimen pribadi, tetapi tidak cocok untuk layanan komersial
Demam AI dan distorsi ekosistem teknologi
- Penyebaran OpenClaw dan dorongan OpenAI untuk ‘memopulerkan agen’ berpotensi memperburuk situasi yang sudah bermasalah
- Geerling menilai demam AI saat ini menunjukkan optimisme irasional dan euforia spekulatif yang mirip dengan boom kripto dan NFT
- LLM dan machine learning memang punya kegunaan nyata, tetapi proyek-proyek bernuansa penipuan merusak ekosistem open source dengan menjadikannya sebagai dalih
Tanda-tanda industri AI yang terlalu panas
- Western Digital mengumumkan bahwa stok hard disk untuk 2026 sudah habis terjual seluruhnya, dan lonjakan permintaan terkait AI disebut sebagai penyebabnya
- Geerling melihat fenomena ini sebagai tanda khas gelembung AI, dan khawatir “berapa banyak yang akan dihancurkan perusahaan AI sebelum mereka harus membayar harganya”
- Ia menekankan bahwa AI, yang bahkan belum cukup ‘bagus’, sedang meruntuhkan struktur kepercayaan dan kolaborasi dalam open source
Pengalaman pribadi dan kesimpulan
- Geerling mengakui manfaat AI sebagai alat bantu saat memindahkan blognya dari Drupal ke Hugo dengan memanfaatkan open model lokal
- Namun, semua kode yang dihasilkan ia uji dan review sendiri sebelum dipasang, dan ia menambahkan bahwa kontribusi ke proyek lain memerlukan verifikasi yang lebih ketat
- Ia menyimpulkan bahwa AI memang bisa meningkatkan efisiensi pengembangan, tetapi otomatisasi tanpa verifikasi mengancam kualitas open source
3 komentar
Salah satu esensi open source menurut saya ada pada kode yang bisa dengan bangga diperlihatkan kepada orang lain. Keanggunan logis, keringkasan, dan rasa bangga adalah hal yang esensial. Ini memang kode, tetapi juga seperti puisi, dan punya daya tarik yang berbeda dari kode industri.
Agen juga cukup bagus sampai tahap perencanaan dan tahap rencana implementasi, tetapi setelah itu mereka hanya mengubah strategi sampai fungsi verifikasi lolos. Semakin dalam proses ini, semakin terbentuk semacam lereng yang mirip implementation trap. Masalahnya, ada juga banyak pengguna manusia yang merasa asal bisa berjalan saja sudah OK.
Pada akhirnya, berdasarkan keselarasan filosofis komunitas, peninjauan oleh manusia pada tahap perencanaan harus dilakukan dengan lebih baik, tetapi ini membutuhkan usaha selain intuisi yang luar biasa. Sebenarnya, karena terlalu meyakinkan, men-debug rencana agen bukanlah hal yang mudah.
Sepertinya para moderator akan sangat kewalahan.
Pendapat Hacker News
Ini bukan sekadar masalah open source. Sumber informasi berkualitas tinggi sedang dieksploitasi berlebihan dan rusak
StackOverflow praktis sudah mati (artikel terkait), penerbit membatasi akses ke Internet Archive, jurnal akademik dibanjiri makalah palsu dan ulasan berkualitas rendah berbasis LLM, dan proyek seperti OpenStreetMap menanggung biaya besar akibat scraping
Rasanya kita berpindah dari era data mining ke era data fracking
Saya menulis kode sebagai hobi, dan belakangan ini sebagian besar memakai LLM. Proyek saya tidak punya pengguna, dan itu tidak masalah
Tapi saat berkontribusi ke open source, ceritanya berbeda. Dulu pemula bisa tumbuh lewat mentoring, tetapi setelah LLM, percakapan nyaris hilang. Mereka seperti Linguini di film Pixar Ratatouille: tanpa gairah untuk belajar, hanya memasukkan sesuatu ke kotak teks lalu melihat hasilnya.
Jangan mengotori dapur (proyek) masing-masing; datanglah dengan empati
Penyebaran AI terasa seperti serangan DDoS yang canggih. Bukan cuma server, tapi perhatian dan sumber daya manusia juga terkuras.
Sebagian besar konten AI berkualitas rendah, jadi sangat melelahkan bagi manusia. Mungkin suatu hari nanti akan berguna, tetapi untuk sekarang ini adalah masa transisi yang kacau
Code review memang sejak awal adalah bottleneck, dan jika kode yang tidak teruji makin banyak, beban maintainer akan meledak.
Open source membutuhkan jaminan kualitas kode demi kompatibilitas jangka panjang
LLM sedang mencemari internet dengan konten berkualitas rendah. Bahkan belum jelas apakah itu masih bisa dipakai sebagai data pelatihan ke depan
Inti masalahnya bukan AI, melainkan asimetri usaha. Dulu membuat PR buruk tetap membutuhkan usaha minimum, sekarang cukup beberapa klik
Maintainer memerlukan alat penyaringan teknis dan sosial. Seperti spam email, dibutuhkan pendekatan campuran teknologi + kebijakan
Akhir pekan lalu saya menemukan bug di sqlcmd versi Golang milik Microsoft dan memperbaikinya dengan Claude.
Kontribusi yang disengaja seperti ini berdampak positif bagi ekosistem
Pada 2020, para siswa membanjiri proyek dengan PR yang hanya mengubah satu baris README demi mendapat kaus. Bahkan tanpa AI pun open source sudah kelebihan beban
Mentoring antargenerasi terputus, dan ekosistem menjadi tidak stabil dan rapuh.
Meski begitu, open source tidak akan mati. Selama masih ada orang yang membagikan proyek yang dibuat di kamar mereka sendiri, ia akan tetap hidup.
Diperlukan standarisasi seperti template panduan kontribusi, alat laporan bug otomatis, dan pelatihan bagi maintainer baru.
Menonaktifkan PR dan issue juga tidak masalah. Tidak wajib selalu memakai GitHub
Pernyataan bahwa “perkembangan AI melambat” terdengar aneh. Dalam beberapa bulan terakhir saja sudah ada peningkatan besar seperti Opus 4.5, 4.6, dan Codex 5.3
Jika melihat grafik METR, pada 2024 memang sempat melambat, tetapi pada 2025 kembali melampaui garis tren
Dulu internet adalah tempat yang menyenangkan, tetapi iklan dan media sosial telah mematikan kreativitas dan kolaborasi.
Dulu ada semangat begadang sambil makan pizza untuk debugging, sekarang semuanya terasa sangat membosankan
Apakah ini masalah AI, atau masalah orang yang menggunakan AI sembarangan tanpa pikir panjang? Dari sekarang saja sudah terasa ada suasana yang hanya ingin melemparkan perilaku salah manusia kepada AI.