Kebijakan penggunaan AI di Ghostty
(github.com/ghostty-org)- Proyek Ghostty menerapkan aturan penggunaan AI yang ketat untuk kontributor eksternal, dan setiap penggunaan AI wajib diungkapkan
- Pull Request yang dibuat dengan AI hanya boleh diajukan untuk issue yang telah disetujui, dan akan ditolak jika terkait issue yang belum disetujui atau jika ada kecurigaan penggunaan AI yang tidak diungkapkan
- Kode yang ditulis AI wajib diverifikasi dan diuji langsung oleh manusia, dan kode yang dibuat otomatis untuk lingkungan yang tidak dapat diakses dilarang
- Bantuan AI diperbolehkan dalam issue atau diskusi, tetapi seluruh isi harus ditinjau dan diedit oleh manusia, serta konten media yang dibuat AI sepenuhnya dilarang
- Ghostty menyatakan menyambut AI itu sendiri, tetapi masalahnya bukan pada alatnya melainkan kurangnya kemampuan pengguna, dan mempertahankan kebijakan ini untuk melindungi maintainer
Aturan penggunaan AI
- Semua bentuk penggunaan AI wajib diungkapkan
- Nama alat yang digunakan (misalnya Claude Code, Cursor, Amp) dan sejauh mana AI berkontribusi harus disebutkan
- Pull Request buatan AI hanya boleh diajukan untuk issue yang telah disetujui
- PR untuk issue yang belum disetujui akan ditutup
- Jika penggunaan AI tidak disebutkan tetapi maintainer mencurigainya, PR akan ditolak
- Kode terkait issue yang belum disetujui dapat dibagikan melalui Discussion
- Kode buatan AI wajib diverifikasi oleh manusia
- Dilarang mengirim kode hipotetis yang belum diuji
- Dilarang menulis kode untuk platform yang tidak dapat diuji langsung karena tidak bisa diakses
- Bantuan AI dalam issue dan diskusi diperbolehkan, tetapi wajib ditinjau dan diedit oleh manusia
- Konten bertele-tele atau tidak perlu yang dibuat AI harus dirapikan oleh manusia
- Media buatan AI (gambar, video, audio, dll.) dilarang, hanya teks dan kode yang diizinkan
- Pengguna AI yang tidak layak (
bad AI drivers) dapat dikenai sanksi secara terbuka- Pengembang pemula disarankan belajar langsung alih-alih mengandalkan AI
Aturan ini hanya berlaku untuk kontributor eksternal, sedangkan maintainer menjadi pengecualian berdasarkan kepercayaan
Prinsip operasional yang berpusat pada manusia
- Ghostty meninjau semua diskusi, issue, dan PR secara langsung oleh manusia
- Ini adalah titik batas tempat manusia berinteraksi dengan manusia, sehingga pekerjaan berkualitas rendah yang tidak diverifikasi dianggap sebagai tindakan yang tidak sopan
- Dunia di mana AI menghasilkan hasil yang sempurna belum tiba, dan saat ini kualitas masih ditentukan oleh kemampuan pengguna AI (
driver) - Karena itu, aturan yang ketat diperlukan untuk melindungi maintainer
Sikap yang menyambut AI
- Ghostty secara aktif memanfaatkan alat AI, dan para maintainer juga menggunakan AI untuk meningkatkan produktivitas
- Tujuan kebijakan ini bukan anti-AI, melainkan untuk mencegah penyalahgunaan oleh pengguna yang kurang terampil
- Proyek ini menjaga transparansi terkait penggunaan AI dan secara jelas menyatakan sikap yang menyambut AI
2 komentar
"""Alasan kami menerapkan kebijakan AI yang ketat bukan karena kami menentang AI itu sendiri, melainkan karena terlalu banyak orang yang tidak memenuhi kualifikasi untuk menggunakannya. Masalahnya bukan pada alatnya, melainkan pada manusianya."""
Komentar Hacker News
Mengejutkan melihat betapa banyaknya spam kontribusi berkualitas rendah di open source belakangan ini
Saya hanya pernah berkontribusi ke beberapa proyek kecil, dan kode-kode itu termasuk yang paling teliti diuji dan direview dari semua yang pernah saya tulis
Saya selalu mendekatinya dengan hati-hati karena tidak ingin membuang waktu orang lain
Jadi saya bingung melihat ada orang-orang yang tampaknya sama sekali tidak punya rasa malu seperti itu
Sekarang dengan kotak Pandora AI sudah terbuka, mereka tampaknya merasa mendapat “kesempatan kedua”
Bukan berarti mereka tidak punya rasa malu, melainkan mereka tidak punya sudut pandang untuk bisa merasakan itu
Kita menghabiskan bertahun-tahun mengasah keterampilan sambil menyadari dalamnya proses belajar, tetapi mereka belum pernah bekerja sehari pun di lapangan, jadi mereka tidak tahu bedanya
Di grup publik juga saya sering melihat orang menempel jawaban hasil copy-paste dari GPT
Pada akhirnya orang-orang hanya punya dorongan untuk meminjam rasa penting diri
Karena itu saya mendukung code of conduct yang mempermalukan secara terbuka orang yang membuang waktu orang lain
Tujuannya hanya agar bisa menulis satu baris “berkontribusi ke Ghostty”, bukan benar-benar ingin membantu
Sekarang ini dunia tanpa rasa malu, dan kalau tidak memahaminya kita akan bingung dan terluka
Kita tidak perlu kehilangan rasa malu, tetapi perlu belajar memahami emosi itu
Padahal kenyataannya tidak begitu
Saya rasa struktur sosial GitHub adalah akar masalah PR berkualitas rendah
Setelah muncul anggapan “berkontribusi ke banyak proyek = pengembang yang baik”, orang-orang mulai mengeksploitasinya seperti permainan
AI hanya menyiram bensin ke api ini, dan dalam jangka panjang insentif seperti ini harus dihapus
Ironisnya, justru karena AI mungkin akan makin jelas bahwa ini bukan lagi sinyal kemampuan
Dulu juga sudah ada “PR sampah untuk CV”, hanya saja sekarang biayanya jadi lebih murah
Ada hambatan masuk yang cukup tinggi sehingga hanya orang yang benar-benar berminat yang mau mengirim patch dengan git send-email
Hanya saja ada efek samping berupa berkurangnya kontributor baru
Kebijakan penggunaan AI Ghostty tampak sebagai pendekatan yang cukup seimbang
Intinya adalah AI tidak bisa menggantikan pemikiran, pengujian, dan refactoring manusia
Saat membuat fitur dengan Codex, akhirnya banyak bagian yang harus ditulis ulang. Penyalahgunaan abstraksi yang tidak perlu adalah masalah yang paling menonjol
Cara menulis kode adalah kebebasan pribadi, yang penting hanya tanggung jawab atas hasilnya
Sama seperti tidak ada kewajiban mengungkapkan tool atau OS yang dipakai, tidak ada alasan untuk memaksa pengungkapan penggunaan AI
Kecepatan proyek melambat karena kode buruk dari para pengembang outsourcing, jadi kami membutuhkannya
Rasanya akan berguna jika disertakan sebagai saran bawaan seperti panduan kontribusi atau code of conduct
Kalau melihat tulisan Sam Altman, premisnya adalah masa depan di mana AI menjadi lebih cerdas daripada manusia
Pada akhirnya, sampai sejauh mana manusia masih dibutuhkan, batasnya makin kabur
Saya suka ungkapan “bad AI drivers”
AI hanyalah alat, tetapi PR yang sembrono itu seperti pengemudi buruk di jalan
Orang-orang seperti ini pada akhirnya akan jadi materi untuk subreddit dashcam di dunia pemrograman
Kalau AI salah ambil jalan, barulah kita membetulkannya
Jika melihat posting X dari Mitchell Hashimoto,
ia mengatakan ingin melihat seluruh transkrip sesi AI
Saya juga sedang mengerjakan side project bernama git-prompt-story yang menempelkan sesi Claude ke catatan GitHub
Rasanya berat kalau harus memperlihatkan proses berpikir saya yang kusut apa adanya, dan malah mungkin perlu “dirapikan” lagi
Jadi saya bertanya-tanya apakah benar perlu dilakukan
Itu bisa menjadi source of truth yang sesungguhnya
Aturan “media buatan AI (gambar, audio, dll.) dilarang, hanya teks/kode yang diperbolehkan” terasa menarik
Seolah-olah teks dan kode dianggap bebas dari kontroversi
Tetapi seperti perusahaan AI mengumpulkan data seni tanpa izin, kode dan teks juga bukan pengecualian
Sekarang suasananya mereda karena kebanyakan pengembang memakai LLM, tetapi dari sudut pandang Ghostty,
kalau sampai teks/kode juga dilarang, itu berarti memblokir sebagian besar kontributor, jadi ini mungkin pilihan yang realistis
Saya telah banyak berkontribusi pada pelatihan AI lewat kode open source, dan saya juga mengalami langsung dampak otomatisasi yang ditimbulkannya
Karena itu saya merasa punya otoritas moral untuk ikut membahas penggunaan AI pada kode
Sebaliknya, di bidang seni korbannya bukan saya sendiri, jadi sulit mengambil posisi yang sama
Ke depan, kode yang ditulis tanpa AI kemungkinan hanya akan tersisa di wilayah khusus
“Pengungkapan penggunaan AI” pada akhirnya bisa jadi hanya prosedur formalitas
Dulu, kalau sesuatu “berjalan + kodenya kompleks”, orang percaya itu hasil pengembang berpengalaman,
tetapi sekarang sinyal sosial itu menghilang
Ke depan, reputasi dan brand pribadi akan jadi lebih penting, dan mitos meritokrasi bahwa “kode berbicara sendiri” akan goyah
Di proyek Zulip juga baru-baru ini terjadi lonjakan sampah buatan AI (PR)
Bahkan ada kasus yang melampirkan screenshot palsu buatan AI
Kami memperingatkan atau memblokir pelanggar berulang
Kami ingin membantu orang yang benar-benar ingin belajar, bukan bergulat dengan kontributor copy-paste LLM
Karena itu kami membuat kebijakan AI yang mirip dengan Ghostty tetapi lebih spesifik
Karena juga menjelaskan cara memanfaatkan AI dengan baik, kebijakan itu sangat layak dijadikan referensi