40 poin oleh GN⁺ 2026-03-09 | 7 komentar | Bagikan ke WhatsApp
  • Satu file Markdown yang mengelompokkan pola penulisan (trope) yang berulang dalam teks buatan AI berdasarkan kategori
  • Jika file ini ditambahkan ke system prompt AI, file ini dapat membantu mengarahkan model agar menghindari gaya bahasa AI yang umum
  • Lebih dari 30 pola spesifik dirangkum beserta contohnya di bawah 6 kategori besar: pilihan kata, struktur kalimat, struktur paragraf, nada, format, dan komposisi
  • Mencakup mulai dari kosakata berlebihan khas AI seperti "delve", "tapestry", "landscape", hingga struktur kalimat seperti "It's not X -- it's Y" yang menciptakan kesan mendalam palsu
  • Setiap pola masih bisa diterima jika dipakai sekali atau dua kali, tetapi menjadi sinyal kuat teks buatan AI saat banyak pola muncul bersamaan atau berulang
  • File ini sendiri juga ditulis dengan bantuan AI, dan memuat penafian "AI untuk AI, manusia untuk manusia"

Pilihan Kata (Word Choice)

  • "Quietly" dan kata keterangan ajaib: pola yang terlalu sering memakai kata keterangan seperti "quietly", "deeply", "fundamentally", "remarkably", "arguably" untuk memberi kesan penting yang halus pada deskripsi biasa
    • Contoh: "quietly orchestrating workflows", "a quiet intelligence behind it"
  • "Delve" dan kata sejenis: kata yang pernah menjadi tanda AI paling terkenal, dan muncul dengan frekuensi tidak wajar dalam teks buatan AI
    • "certainly", "utilize", "leverage" (kata kerja), "robust", "streamline", "harness" juga termasuk keluarga yang sama
  • "Tapestry" dan "Landscape": pola menggunakan nomina yang terdengar megah ketika kata yang lebih sederhana sebenarnya sudah cukup
    • "tapestry" dipakai berlebihan untuk segala sesuatu yang saling terhubung, dan "landscape" untuk hampir semua bidang atau domain
    • "paradigm", "synergy", "ecosystem", "framework" juga termasuk jenis yang sama
  • Menghindari "Serves As": alih-alih memakai "is/are" yang sederhana, AI memilih kata penghubung yang dibesar-besarkan seperti "serves as", "stands as", "marks", "represents"
    • Ini terjadi karena repetition penalty pada AI mendorong model menjauh dari copula dasar ke frasa yang lebih mencolok

Struktur Kalimat (Sentence Structure)

  • Negative Parallelism: pola "It's not X -- it's Y", yaitu sinyal yang paling sering dikenali dalam tulisan AI
    • Membungkus segalanya sebagai reframe yang mengejutkan sehingga menghasilkan kesan mendalam palsu
    • Sebelum era LLM, hampir tidak ada penulisan massal dengan gaya seperti ini
    • Termasuk varian kausal "not because X, but because Y"
  • "Not X. Not Y. Just Z.": pola countdown dramatis yang menolak dua hal atau lebih sebelum mengungkap poin sebenarnya
    • Menciptakan kesan palsu seolah sedang mempersempit kebenaran
  • "The X? A Y.": pola pertanyaan retoris lalu langsung menjawabnya dengan mengajukan pertanyaan yang tidak ditanyakan siapa pun
    • Dipakai untuk efek dramatis, dan AI menganggapnya sebagai inti dari tulisan yang bagus
  • Penyalahgunaan anafora (Anaphora): mengulang awal kalimat yang sama beberapa kali secara cepat
    • Contoh: "They assume that... They assume that... They assume that..."
  • Penyalahgunaan tricolon (Tricolon): terlalu sering memakai aturan tiga, kadang bahkan diperluas menjadi empat atau lima
    • Satu tricolon bisa terasa elegan, tetapi tiga berturut-turut menunjukkan kegagalan mengenali pola
  • "It's Worth Noting": frasa transisi pengisi yang sebenarnya tidak memberi sinyal apa pun
    • "It bears mentioning", "Importantly", "Interestingly", "Notably" juga termasuk tipe yang sama
    • Memperkenalkan poin baru tanpa benar-benar menghubungkannya dengan argumen sebelumnya
  • Analisis dangkal (Superficial Analyses): menambahkan frasa present participle ("-ing") di akhir kalimat untuk menyuntikkan analisis yang dangkal
    • Ungkapan seperti "highlighting its importance", "reflecting broader trends", "contributing to the development of..."
    • Memberi kesan penting, warisan, atau makna luas pada fakta yang biasa-biasa saja
  • Rentang palsu (False Ranges): konstruksi "from X to Y" ketika X dan Y sebenarnya tidak berada pada skala yang sama
    • Dalam penggunaan yang sah, bentuk ini menyiratkan spektrum dengan titik tengah yang bermakna, tetapi AI memakainya hanya untuk menyebut dua hal yang berhubungan longgar
  • Litani fragmen gerund (Gerund Fragment Litany): setelah membuat klaim, AI menumpuk fragmen gerund tanpa subjek secara berurutan
    • "Fixing small bugs. Writing straightforward features. Implementing well-defined tickets."
    • Kalimat pertama sebenarnya sudah menyampaikan semuanya, dan fragmen setelahnya hanya menambah jumlah kata serta ritme khas AI
    • Manusia tidak menulis draf awal dengan cara seperti ini; ini murni tic struktural

Struktur Paragraf (Paragraph Structure)

  • Fragmen pendek yang menohok (Short Punchy Fragments): memakai kalimat atau fragmen yang sangat pendek sebagai paragraf tersendiri untuk menciptakan penekanan yang artifisial
    • Hasil dari pelatihan RLHF yang mendorong model ke gaya "menulis demi keterbacaan" untuk pembaca tingkat paling rendah
    • Satu gagasan per kalimat, gaya non-manusia yang tidak menuntut pembaca mempertahankan keadaan mental
  • Listicle berkedok prosa (Listicle in a Trench Coat): menyamarkan poin bernomor atau berlabel sebagai prosa beruntun
    • Pola yang menyembunyikan format daftar lewat paragraf yang dimulai dengan "The first... The second... The third..."
    • Sering dipakai sebagai alternatif setelah model diminta berhenti membuat daftar

Nada (Tone)

  • "Here's the Kicker": transisi suspense palsu yang menjanjikan wahyu, padahal poin yang disampaikan tidak butuh buildup seperti itu
    • "Here's the thing", "Here's where it gets interesting", "Here's what most people miss" juga termasuk tipe yang sama
  • "Think of It As...": mode guru sebagai default yang menganggap pembaca perlu analogi untuk memahami apa pun
    • AI sering menghasilkan analogi yang justru kurang jelas daripada konsep aslinya
  • "Imagine a World Where...": undangan futuristis khas AI, di mana setelah "Imagine" akan muncul daftar hal hebat yang terjadi jika pembaca menerima premisnya
  • Kerentanan palsu (False Vulnerability): kesadaran diri performatif yang berpura-pura mendobrak tembok keempat atau mengakui bias
    • Kerentanan yang nyata itu spesifik dan tidak nyaman, sedangkan kerentanan versi AI rapi dan tanpa risiko
  • "The Truth Is Simple": pola yang mengklaim sesuatu itu jelas atau sederhana alih-alih benar-benar membuktikannya
  • Pembengkakan taruhannya secara bombastis (Grandiose Stakes Inflation): membesarkan taruhan semua argumen menjadi seolah-olah sepenting sejarah dunia
    • Misalnya ketika tulisan blog tentang harga API berubah menjadi renungan tentang nasib peradaban
  • "Let's Break This Down": suara pedagogis yang secara default menempatkan relasi guru-murid bahkan untuk pembaca ahli
    • "Let's unpack this", "Let's explore", "Let's dive in" juga termasuk tipe yang sama
  • Atribusi samar (Vague Attributions): menyandarkan klaim pada otoritas tanpa nama seperti "experts", "observers", "industry reports" tanpa sumber yang spesifik
    • Termasuk kebiasaan membesarkan satu orang yang berbicara seolah menjadi pandangan umum, atau dua sumber menjadi "several publications"
  • Label konsep ciptaan sendiri (Invented Concept Labels): menempelkan nomina masalah abstrak seperti paradox, trap, creep, divide, vacuum, inversion ke kata domain untuk menciptakan label sintetis yang terdengar analitis tetapi tanpa dasar
    • Misalnya "supervision paradox", "acceleration trap", "workload creep"
    • Berfungsi sebagai singkatan retoris: diberi nama, argumennya dilewati; jika banyak muncul dalam satu tulisan, ini sinyal kuat AI slop

Format (Formatting)

  • Kecanduan em dash (Em-Dash Addiction): terlalu sering memakai em dash secara kompulsif untuk jeda dramatis, sisipan, atau titik balik
    • Penulis manusia biasanya memakai 2-3 kali secara alami dalam satu tulisan, sedangkan AI bisa lebih dari 20 kali
  • Bullet dengan tebal di awal (Bold-First Bullets): pola ketika semua bullet point dimulai dengan frasa tebal
    • Sangat umum pada output Markdown Claude dan ChatGPT, tetapi hampir tidak ada orang yang memformat manual seperti ini
    • Tanda yang sangat jelas dari dokumen, blog post, atau README buatan AI, terutama jika disertai emoji
  • Dekorasi Unicode (Unicode Decoration): penggunaan karakter khusus seperti panah Unicode (→), smart/curly quotes, dan sejenisnya yang tidak mudah diketik dari keyboard standar
    • Penulis sungguhan di text editor biasanya memakai tanda kutip lurus serta ->, =>
    • Claude khususnya sangat menyukai panah →

Komposisi (Composition)

  • Ringkasan fraktal (Fractal Summaries): menerapkan pola "apa yang akan dibahas, apa yang sedang dibahas, apa yang baru saja dibahas" di setiap level dokumen
    • Setiap subbagian, bagian, dan dokumen secara keseluruhan masing-masing diberi ringkasan
  • Metafora mati (The Dead Metaphor): terpaku pada satu metafora lalu mengulang-ulangnya sepanjang tulisan
    • Penulis manusia biasanya memperkenalkan metafora, memakainya, lalu lanjut; AI mengulanginya 5-10 kali
  • Penumpukan analogi historis (Historical Analogy Stacking): sangat umum dalam tulisan teknologi, dengan daftar cepat perusahaan historis atau revolusi teknologi untuk membangun otoritas palsu
    • Pola seperti "Apple didn't build Uber. Facebook didn't build Spotify..."
  • Pengenceran satu poin (One-Point Dilution): menyatakan ulang satu argumen tunggal dengan 10 cara berbeda sepanjang ribuan kata
    • Ide yang sama diulang dengan metafora, contoh, dan framing berbeda agar terlihat "komprehensif"
  • Duplikasi konten (Content Duplication): mengulang seluruh bagian atau paragraf apa adanya di dalam tulisan yang sama
    • Terjadi ketika model gagal melacak apa yang sudah ditulis, terutama pada teks panjang
    • Tanda jelas output AI yang tidak diedit, meski belakangan lebih jarang
  • Kesimpulan yang diberi papan penunjuk (The Signposted Conclusion): mengumumkan kesimpulan secara eksplisit dengan "In conclusion", "To sum up", "In summary"
    • Tulisan yang terampil membuat pembaca merasakan bahwa itu penutup tanpa perlu diberi tahu
    • AI memberi sinyal gerakan struktural karena mengikuti template
  • "Despite Its Challenges...": formula kaku AI yang mengakui masalah hanya untuk segera menepisnya
    • Mengikuti irama yang sama: "Despite its [kata positif], [subjek] faces challenges..." lalu "Despite these challenges, [kesimpulan optimistis]"

Prinsip Inti

  • Pola-pola di atas mungkin tidak masalah jika dipakai sekali, tetapi menjadi masalah ketika banyak pola muncul bersamaan atau satu pola diulang-ulang
  • Menulislah seperti manusia: beragam, tidak sempurna, dan spesifik

7 komentar

 
geekygeek 2026-03-09

"Dalam tulisan ini, penulis membedah teks yang dihasilkan AI lalu mengungkap 6 tanda utama 'AI slop' dan struktur tersembunyi di dalamnya. Ini bukan sekadar deretan kata. Dari kosakata berlebihan seperti "delve" atau "tapestry" hingga pola kalimat yang menciptakan kesan mendalam palsu, tulisan ini membahas alasan mengapa AI tidak menulis seperti manusia. Intinya adalah memulihkan tulisan yang beragam dan tidak sempurna."

 
dofuuz 2026-03-17

Ternyata ada juga dokumen terkait di Namuwiki wkwk
https://namu.wiki/w/…

 
y15un 2026-03-10

Saat menulis tesis master dengan LaTeX, saya pertama kali mempelajari perbedaan antara em dash (---) dan en dash (--), dan sejak saat itu hingga sekarang saya cukup sering memakainya di hampir semua tulisan bahasa Inggris saya. (Saya menetapkan shortcut dengan Espanso untuk memakainya)
Saya sendiri belum pernah mendapat komentar seperti, "Apakah kamu menulis ini dengan AI?", tetapi tetap saja rasanya campur aduk mengetahui bahwa tanda baca favorit saya dipakai sebagai indikator AI.

Tulisan terkait yang layak dibaca: https://marcusolang.substack.com/p/im-kenyan-i-dont-write-like-chatgpt

 
y15un 2026-03-10

Setelah saya cek, ini adalah tulisan yang pernah saya lihat di GeekNews: 나는 케냐인이다. 나는 ChatGPT처럼 쓰지 않는다. ChatGPT가 나처럼 쓴다

 
savvykang 2026-03-09

Wow... kamu benar-benar, **tepat sasaran.**

 
hmmhmmhm 2026-03-09

Oh, semoga versi bahasa Koreanya juga keluar.

 
GN⁺ 2026-03-09
Opini-opini Hacker News
  • Jika ingin membagikan tulisan dengan serius, sebaiknya hindari memakai prompt seperti ini
    Saya pernah mencoba menulis posting blog dengan LLM; awalnya terlihat oke, tetapi setelah diulang beberapa kali, semua tulisan terdengar memiliki suara yang sama
    Nada yang sama juga berulang di blog lain, berita, dan whitepaper
    Pembaca ingin mendengar bukan hanya isi teks, tetapi juga suara khas penulisnya
    Artikel terkait: Why We Hate LLM Articles

  • Alasan tulisan AI terasa kurang bagus adalah karena tidak punya ‘suara’
    Penulis manusia menyajikan sudut pandang yang lahir dari pengalaman mereka sendiri, sedangkan AI tidak benar-benar punya niat untuk ‘mengatakan’ apa pun
    Selain itu, AI juga tidak mampu menjaga koherensi yang mendalam. Mungkin ini karena tidak ada tujuan manusiawi, ingatan, atau rasa diri

  • Upaya seperti ini terasa menjengkelkan
    Daripada berusaha menyamarkan kalimat buatan AI secara licik, lebih baik jangan membuang waktu
    Jika menulis dengan AI tidak memalukan, tidak perlu disembunyikan; jika memalukan, seharusnya berhenti
    Hanya karena orang memprotes sumur yang diracuni, bukan berarti benar untuk memakai racun yang lebih licik

  • Saya sedang meneliti gaya tulisan LLM, dan di antara ungkapan di thread ini, “tapestry” terasa menarik
    Itu adalah kata yang paling sering dipakai GPT-4o setelah “camaraderie”
    Model dasar tidak terlalu memiliki gaya aneh seperti ini, tetapi muncul setelah melalui instruction tuning
    Saya penasaran apakah penilai manusia memang diminta menilai gaya, atau apakah ada rubrik tertentu
    Paper terkait: paper PNAS, pracetak arXiv

    • Gaya aneh seperti ini berasal dari RLHF
      Studi dari Kenya dan Nigeria menunjukkan bahwa karena perplexity menjadi target optimasi, model pralatih mencerminkan keluaran yang paling ‘dapat diprediksi’
    • Saya mengumpulkan tautan tentang gaya penulisan AI di sini: AI Writing Style
      Termasuk tulisan berjudul “Hydrogen Jukeboxes”
      Perubahan gaya juga dibahas dalam analisis mode collapse oleh Gwern Branwen
    • Intuisi saya, penyebab yang lebih besar adalah mode collapse, bukan RLHF
      Bahkan model dengan hampir tanpa preferensi manusia seperti DeepSeek R1 Zero pada akhirnya tetap konvergen ke pola yang stabil
      Fenomena ini berulang lintas generasi, dan ketika web tercemar oleh keluaran model generasi sebelumnya, terbentuk lingkaran setan
    • Mungkin ini juga terkait dengan bagaimana makna terhubung ke token
      Misalnya, cara tokenisasi untuk “camaraderie”, atau fakta bahwa dalam bahasa Inggris emoji adalah satu-satunya bentuk piktogram sehingga bobotnya jadi besar, terasa menarik
    • Saya juga berpikir perubahan gaya ini mungkin disebabkan oleh chat fine-tuning
  • Daftar seperti ini berisiko menjadi semakin panjang seiring waktu
    Karena AI akan terus menciptakan klise baru

  • File ini terasa lebih seperti dokumen untuk saya sebagai pengguna daripada untuk LLM
    Kalimat seperti “tambahkan file ini ke system prompt AI” pada akhirnya jadi seperti AI memberi instruksi kepada AI lain
    Karena penjelasan dan instruksi tercampur, hasilnya membingungkan. Ungkapan “jangan lakukan” justru menimbulkan efek balik yang membuat kata itu lebih sering dipakai
    Penjelasan untuk pengguna dan instruksi untuk AI seharusnya dipisahkan
    Saya meminta Claude menulis ulang, lalu merapikannya di gist ini

    • Baik di teks asli maupun gist, nama-nama pola seperti “Negative Parallelism” dan “Gerund Fragment Litany” terus diulang
      Untuk LLM, lebih efektif menghindari nama-nama seperti ini dan menjelaskan bentuk positif dari kalimat yang baik
      Versi yang ditulis ulang Claude ada di sini
    • Saya juga setuju. Ini daftar yang bagus, tetapi tidak cocok sebagai prompt
      Jika diberi tahu “jangan lakukan”, justru muncul efek Streisand yang membuat hal itu makin sering dilakukan
      Jika diminta menulis dengan gaya penulis tertentu, hasilnya terasa lebih alami dan kurang generik
      Lalu jika ada ‘agen editor’ sesudahnya untuk menghapus klise, hasilnya jauh lebih baik
  • Saya mencoba riset sejarah dengan Gemini, tetapi ia tidak bisa berhenti memakai metafora teknis
    Tuan tanah diibaratkan CEO, paus diibaratkan influencer, pemberontakan feodal diibaratkan wawancara kerja, sampai-sampai jadi nyaris komikal

    • Mungkin Gemini sedang mencoba memberi jawaban yang dipersonalisasi sesuai diri saya
      Di pengaturan memang bisa menambahkan instruksi tambahan, tetapi setelah saya memasukkan tech stack saya, setiap jawaban jadi diakhiri dengan kalimat “JVM dan v8 yang menanganinya”
      Jadi saya bilang untuk mengabaikannya, lalu kali ini malah menambahkan paragraf dengan nada menyindir yang dimulai dengan “Dengan otak S2 Anda...”
  • Claude dan ChatGPT belakangan sering memakai kata-kata seperti “genuine”, “real”, “honest”
    Ungkapan seperti “no <thing you told me not to do>” juga sering muncul. Sepertinya untuk memeriksa kepatuhan terhadap prompt

    • Di Reddit, terutama subreddit NBA, saya melihat “honestly” dipakai berlebihan
    • Adverbia seperti “genuinely” juga terasa makin sering muncul bahkan dalam tulisan manusia. Mungkin ini perubahan tren bahasa sejak pandemi
    • Ungkapan baru yang saya lihat di Claude adalah “Fair enough, …
    • “X that actually works” juga sering muncul
    • Ada juga banyak kasus seperti “no react hooks”, yaitu memasukkan instruksi mentah langsung ke dalam kalimat. Rasanya agak pasif-agresif
  • Ada juga materi terkait di Wikipedia: Signs of AI Writing
    Tapi saat membacanya, jadi agak malu karena ikut menemukan kebiasaan menulis diri sendiri
    Saya sendiri cukup sering memakai ungkapan rentang palsu seperti “from X to Y”
    Dan LLM sama sekali tidak bisa melepaskan kebiasaan memisahkan judul dan subjudul dengan titik dua

    • Manusia juga memakai klise seperti ini, tetapi AI mengulanginya di setiap paragraf
    • Dokumen prompt terkait: LLM_PROSE_TELLS.md
  • Untuk referensi berguna yang benar-benar ditulis manusia, saya merekomendasikan Wikipedia: Signs of AI Writing