11 poin oleh GN⁺ 2026-01-24 | 2 komentar | Bagikan ke WhatsApp
  • Proyek Ghostty menerapkan aturan penggunaan AI yang ketat untuk kontributor eksternal, dan setiap penggunaan AI wajib diungkapkan
  • Pull Request yang dibuat dengan AI hanya boleh diajukan untuk issue yang telah disetujui, dan akan ditolak jika terkait issue yang belum disetujui atau jika ada kecurigaan penggunaan AI yang tidak diungkapkan
  • Kode yang ditulis AI wajib diverifikasi dan diuji langsung oleh manusia, dan kode yang dibuat otomatis untuk lingkungan yang tidak dapat diakses dilarang
  • Bantuan AI diperbolehkan dalam issue atau diskusi, tetapi seluruh isi harus ditinjau dan diedit oleh manusia, serta konten media yang dibuat AI sepenuhnya dilarang
  • Ghostty menyatakan menyambut AI itu sendiri, tetapi masalahnya bukan pada alatnya melainkan kurangnya kemampuan pengguna, dan mempertahankan kebijakan ini untuk melindungi maintainer

Aturan penggunaan AI

  • Semua bentuk penggunaan AI wajib diungkapkan
    • Nama alat yang digunakan (misalnya Claude Code, Cursor, Amp) dan sejauh mana AI berkontribusi harus disebutkan
  • Pull Request buatan AI hanya boleh diajukan untuk issue yang telah disetujui
    • PR untuk issue yang belum disetujui akan ditutup
    • Jika penggunaan AI tidak disebutkan tetapi maintainer mencurigainya, PR akan ditolak
    • Kode terkait issue yang belum disetujui dapat dibagikan melalui Discussion
  • Kode buatan AI wajib diverifikasi oleh manusia
    • Dilarang mengirim kode hipotetis yang belum diuji
    • Dilarang menulis kode untuk platform yang tidak dapat diuji langsung karena tidak bisa diakses
  • Bantuan AI dalam issue dan diskusi diperbolehkan, tetapi wajib ditinjau dan diedit oleh manusia
    • Konten bertele-tele atau tidak perlu yang dibuat AI harus dirapikan oleh manusia
  • Media buatan AI (gambar, video, audio, dll.) dilarang, hanya teks dan kode yang diizinkan
  • Pengguna AI yang tidak layak (bad AI drivers) dapat dikenai sanksi secara terbuka
    • Pengembang pemula disarankan belajar langsung alih-alih mengandalkan AI

Aturan ini hanya berlaku untuk kontributor eksternal, sedangkan maintainer menjadi pengecualian berdasarkan kepercayaan

Prinsip operasional yang berpusat pada manusia

  • Ghostty meninjau semua diskusi, issue, dan PR secara langsung oleh manusia
    • Ini adalah titik batas tempat manusia berinteraksi dengan manusia, sehingga pekerjaan berkualitas rendah yang tidak diverifikasi dianggap sebagai tindakan yang tidak sopan
  • Dunia di mana AI menghasilkan hasil yang sempurna belum tiba, dan saat ini kualitas masih ditentukan oleh kemampuan pengguna AI (driver)
  • Karena itu, aturan yang ketat diperlukan untuk melindungi maintainer

Sikap yang menyambut AI

  • Ghostty secara aktif memanfaatkan alat AI, dan para maintainer juga menggunakan AI untuk meningkatkan produktivitas
  • Tujuan kebijakan ini bukan anti-AI, melainkan untuk mencegah penyalahgunaan oleh pengguna yang kurang terampil
  • Proyek ini menjaga transparansi terkait penggunaan AI dan secara jelas menyatakan sikap yang menyambut AI

2 komentar

 
darjeeling 2026-01-24

"""Alasan kami menerapkan kebijakan AI yang ketat bukan karena kami menentang AI itu sendiri, melainkan karena terlalu banyak orang yang tidak memenuhi kualifikasi untuk menggunakannya. Masalahnya bukan pada alatnya, melainkan pada manusianya."""

 
GN⁺ 2026-01-24
Komentar Hacker News
  • Mengejutkan melihat betapa banyaknya spam kontribusi berkualitas rendah di open source belakangan ini
    Saya hanya pernah berkontribusi ke beberapa proyek kecil, dan kode-kode itu termasuk yang paling teliti diuji dan direview dari semua yang pernah saya tulis
    Saya selalu mendekatinya dengan hati-hati karena tidak ingin membuang waktu orang lain
    Jadi saya bingung melihat ada orang-orang yang tampaknya sama sekali tidak punya rasa malu seperti itu

    • Dulu, orang yang kemampuannya kurang tidak akan masuk ke jalur seperti ini
      Sekarang dengan kotak Pandora AI sudah terbuka, mereka tampaknya merasa mendapat “kesempatan kedua”
      Bukan berarti mereka tidak punya rasa malu, melainkan mereka tidak punya sudut pandang untuk bisa merasakan itu
      Kita menghabiskan bertahun-tahun mengasah keterampilan sambil menyadari dalamnya proses belajar, tetapi mereka belum pernah bekerja sehari pun di lapangan, jadi mereka tidak tahu bedanya
    • Saya pernah punya klien yang mengirim screenshot GPT untuk membantah pendapat saya
      Di grup publik juga saya sering melihat orang menempel jawaban hasil copy-paste dari GPT
      Pada akhirnya orang-orang hanya punya dorongan untuk meminjam rasa penting diri
      Karena itu saya mendukung code of conduct yang mempermalukan secara terbuka orang yang membuang waktu orang lain
    • Banyak orang berkontribusi ke proyek open source besar semata-mata untuk CV
      Tujuannya hanya agar bisa menulis satu baris “berkontribusi ke Ghostty”, bukan benar-benar ingin membantu
    • Kita harus mengakui bahwa masyarakat telah berubah
      Sekarang ini dunia tanpa rasa malu, dan kalau tidak memahaminya kita akan bingung dan terluka
      Kita tidak perlu kehilangan rasa malu, tetapi perlu belajar memahami emosi itu
    • Saat bekerja di perusahaan open source, kebanyakan orang mengira kontribusi mereka adalah hadiah
      Padahal kenyataannya tidak begitu
  • Saya rasa struktur sosial GitHub adalah akar masalah PR berkualitas rendah
    Setelah muncul anggapan “berkontribusi ke banyak proyek = pengembang yang baik”, orang-orang mulai mengeksploitasinya seperti permainan
    AI hanya menyiram bensin ke api ini, dan dalam jangka panjang insentif seperti ini harus dihapus
    Ironisnya, justru karena AI mungkin akan makin jelas bahwa ini bukan lagi sinyal kemampuan

    • Bahkan tanpa AI pun masalahnya tetap sama
      Dulu juga sudah ada “PR sampah untuk CV”, hanya saja sekarang biayanya jadi lebih murah
    • Workflow berbasis mailing list membantu mengurangi masalah seperti ini
      Ada hambatan masuk yang cukup tinggi sehingga hanya orang yang benar-benar berminat yang mau mengirim patch dengan git send-email
      Hanya saja ada efek samping berupa berkurangnya kontributor baru
  • Kebijakan penggunaan AI Ghostty tampak sebagai pendekatan yang cukup seimbang
    Intinya adalah AI tidak bisa menggantikan pemikiran, pengujian, dan refactoring manusia
    Saat membuat fitur dengan Codex, akhirnya banyak bagian yang harus ditulis ulang. Penyalahgunaan abstraksi yang tidak perlu adalah masalah yang paling menonjol

    • Kecuali klausul pertama, semuanya terdengar masuk akal
      Cara menulis kode adalah kebebasan pribadi, yang penting hanya tanggung jawab atas hasilnya
      Sama seperti tidak ada kewajiban mengungkapkan tool atau OS yang dipakai, tidak ada alasan untuk memaksa pengungkapan penggunaan AI
    • Saya ingin menjadikannya referensi untuk panduan AI internal di perusahaan kami
      Kecepatan proyek melambat karena kode buruk dari para pengembang outsourcing, jadi kami membutuhkannya
    • Akan bagus kalau GitHub menyediakan kebijakan ini sebagai template
      Rasanya akan berguna jika disertakan sebagai saran bawaan seperti panduan kontribusi atau code of conduct
    • Kebijakannya seimbang, tetapi kalimat “AI tidak menggantikan manusia” terasa menarik
      Kalau melihat tulisan Sam Altman, premisnya adalah masa depan di mana AI menjadi lebih cerdas daripada manusia
      Pada akhirnya, sampai sejauh mana manusia masih dibutuhkan, batasnya makin kabur
  • Saya suka ungkapan “bad AI drivers”
    AI hanyalah alat, tetapi PR yang sembrono itu seperti pengemudi buruk di jalan
    Orang-orang seperti ini pada akhirnya akan jadi materi untuk subreddit dashcam di dunia pemrograman

    • Sebenarnya AI yang mengemudi dan kita lebih mirip orang yang duduk di kursi penumpang
      Kalau AI salah ambil jalan, barulah kita membetulkannya
  • Jika melihat posting X dari Mitchell Hashimoto,
    ia mengatakan ingin melihat seluruh transkrip sesi AI
    Saya juga sedang mengerjakan side project bernama git-prompt-story yang menempelkan sesi Claude ke catatan GitHub

    • Membuka transkrip sesi punya dua sisi
      Rasanya berat kalau harus memperlihatkan proses berpikir saya yang kusut apa adanya, dan malah mungkin perlu “dirapikan” lagi
    • Saya juga pernah menyimpan prompt, tetapi nilai praktisnya tidak terlalu besar
      Jadi saya bertanya-tanya apakah benar perlu dilakukan
    • Saya rasa lebih baik melampirkan file rencana yang dibuat di mode Plan milik Claude
      Itu bisa menjadi source of truth yang sesungguhnya
    • AI juga mungkin bisa membantu dalam merapikan catatan seperti ini
    • Tim kami sedang membahas cara melampirkan sesi Claude ke tiket Jira, bukan ke GitHub
  • Aturan “media buatan AI (gambar, audio, dll.) dilarang, hanya teks/kode yang diperbolehkan” terasa menarik
    Seolah-olah teks dan kode dianggap bebas dari kontroversi
    Tetapi seperti perusahaan AI mengumpulkan data seni tanpa izin, kode dan teks juga bukan pengecualian

    • Saat Microsoft menggunakan repositori GitHub sebagai data pelatihan AI, pernah ada penolakan besar
      Sekarang suasananya mereda karena kebanyakan pengembang memakai LLM, tetapi dari sudut pandang Ghostty,
      kalau sampai teks/kode juga dilarang, itu berarti memblokir sebagian besar kontributor, jadi ini mungkin pilihan yang realistis
    • Bukan karena kode kurang penting daripada seni, melainkan soal hak dan batasan
      Saya telah banyak berkontribusi pada pelatihan AI lewat kode open source, dan saya juga mengalami langsung dampak otomatisasi yang ditimbulkannya
      Karena itu saya merasa punya otoritas moral untuk ikut membahas penggunaan AI pada kode
      Sebaliknya, di bidang seni korbannya bukan saya sendiri, jadi sulit mengambil posisi yang sama
  • Ke depan, kode yang ditulis tanpa AI kemungkinan hanya akan tersisa di wilayah khusus
    “Pengungkapan penggunaan AI” pada akhirnya bisa jadi hanya prosedur formalitas
    Dulu, kalau sesuatu “berjalan + kodenya kompleks”, orang percaya itu hasil pengembang berpengalaman,
    tetapi sekarang sinyal sosial itu menghilang
    Ke depan, reputasi dan brand pribadi akan jadi lebih penting, dan mitos meritokrasi bahwa “kode berbicara sendiri” akan goyah

  • Di proyek Zulip juga baru-baru ini terjadi lonjakan sampah buatan AI (PR)
    Bahkan ada kasus yang melampirkan screenshot palsu buatan AI
    Kami memperingatkan atau memblokir pelanggar berulang
    Kami ingin membantu orang yang benar-benar ingin belajar, bukan bergulat dengan kontributor copy-paste LLM
    Karena itu kami membuat kebijakan AI yang mirip dengan Ghostty tetapi lebih spesifik

    • Kebijakan Zulip jauh lebih realistis dan praktis dibanding milik Mitchell
      Karena juga menjelaskan cara memanfaatkan AI dengan baik, kebijakan itu sangat layak dijadikan referensi