3 poin oleh GN⁺ 2026-03-16 | 1 komentar | Bagikan ke WhatsApp
  • ‘Sloppypasta’ adalah tindakan menyalin begitu saja output LLM (large language model) yang belum ditinjau lalu mengirimkannya ke orang lain, dan dikritik sebagai perilaku tidak sopan karena membebankan verifikasi yang tidak perlu kepada penerima
  • Pesan seperti ini menimbulkan asimetri antara membaca dan memverifikasi: pengirim mengirimnya dalam hitungan detik, tetapi penerima harus meninjau teks panjang tersebut, sehingga terjadi pelimpahan kerja
  • Masalah kepercayaan juga serius; karena halusinasi (hallucination) LLM dan nadanya yang terlalu percaya diri, penerima berada dalam situasi harus secara default tidak mempercayai semua informasi
  • Tulisan ini menawarkan etika dasar saat memakai AI: ‘Read’, ‘Verify’, ‘Distill’, dan ‘Disclose’, serta menekankan agar tidak membagikan output AI yang tidak diminta
  • AI memang bisa meningkatkan produktivitas, tetapi penulis menekankan perlunya cara penggunaan yang tidak melanggar waktu dan kepercayaan orang lain

Definisi Sloppypasta dan pengenalan masalah

  • Sloppypasta adalah gabungan dari ‘slop’ (konten AI berkualitas rendah) dan ‘copypasta’ (meme copy-paste), yang berarti meneruskan output LLM apa adanya tanpa dibaca dan diverifikasi
    • Ini dianggap sebagai tindakan asimetris karena upaya meninjau dan merangkum yang seharusnya dilakukan pengirim justru dialihkan ke penerima
  • Hal ini sering terjadi di Slack, Teams, email, dan lain-lain, serta mudah dikenali dari gaya bahasa AI yang formalistik dan format yang berlebihan
  • Pengirim hanya butuh beberapa detik untuk mengirim pesan, tetapi penerima harus menanggung beban memverifikasi isi dan membuat penilaian

Jenis dan contoh Sloppypasta

  • The Eager Beaver: kasus ketika seseorang menempelkan jawaban chatbot apa adanya dengan niat berkontribusi pada topik percakapan
    • Meski dilakukan dengan niat baik, teks AI yang umum dan tanpa konteks justru mengganggu percakapan dan memutus alurnya
  • The OrAIcle: bentuk penyampaian jawaban untuk pertanyaan tertentu yang dimulai dengan “ChatGPT says”
    • Ini dianggap sebagai respons yang tidak sopan, mirip LMGTFY (“Let Me Google That For You”) di masa lalu
    • Penerima harus menanggung beban untuk menilai sendiri kebenaran, relevansi, dan sumber isinya
  • The Ghostwriter: ketika isi buatan AI dibagikan dengan menyamar sebagai tulisan sendiri
    • Penerima tidak punya dasar untuk mempercayainya, dan bila informasinya salah, hal itu dapat berujung pada rusaknya kredibilitas pengirim

Mengapa ini menjadi masalah

  • Ketimpangan usaha: LLM hampir menghilangkan biaya menulis, tetapi penerima tetap harus mengeluarkan upaya kognitif yang besar untuk membaca dan memverifikasi
    • Akibatnya, utang kognitif (cognitive debt) menumpuk, dan pengirim kehilangan kesempatan untuk belajar serta memahami
  • Runtuhnya kepercayaan: karena halusinasi dan pembuatan informasi palsu oleh LLM, prinsip “percaya tapi verifikasi” menjadi goyah
    • Penerima harus secara default tidak mempercayai semua pesan, dan modal kepercayaan pengirim pun terkikis
  • Hilangnya sinyal keahlian: nada percaya diri dari AI membuat keahlian nyata dan keyakinan palsu makin sulit dibedakan, sehingga kepercayaan makin melemah
  • Tanggung jawab yang tidak jelas: saat terjadi kesalahan, menjadi tidak jelas siapa yang harus bertanggung jawab, AI atau pengguna
  • Pada akhirnya, Sloppypasta menyebabkan hilangnya pembelajaran, runtuhnya kepercayaan, dan kelelahan komunikasi

Pendapat yang dikutip

  • “Menulis adalah proses berpikir, dan ketika didelegasikan ke LLM, pemahaman dan ingatan menurun” — riset Anthropic
  • “Membagikan output AI tanpa membacanya itu tidak sopan” — Simon Willison
  • “Jawaban AI yang halus dan rapi, meskipun isinya benar, bisa menimbulkan kesan diabaikan” — Blake Stockton
  • “Dulu, tulisan adalah bukti pemikiran manusia, tetapi sekarang tidak lagi” — Alex Martsinovich

6 prinsip untuk menghindari Sloppypasta

  • Read: sebelum membagikan, harus dibaca dan dipahami sendiri
    • Output yang tidak dibaca tidak bisa menjamin akurasi, relevansi, maupun kemutakhiran
  • Verify: harus melakukan verifikasi fakta
    • Isi yang dibagikan berarti ada jaminan kepercayaan implisit dari pengirim, dan informasi yang salah dapat berujung pada kerusakan reputasi
  • Distill: sampaikan hanya inti pentingnya
    • Karena struktur biaya token mendorong LLM menghasilkan jawaban yang bertele-tele, pengirim harus bertanggung jawab untuk merangkumnya
  • Disclose: nyatakan dengan jelas apakah AI digunakan
    • Dengan membagikan bagian mana yang ditinjau dan prompt apa yang dipakai, sinyal kepercayaan bisa dipulihkan
  • Share only when requested: jangan membagikan output AI yang tidak diminta
    • Sloppypasta memaksa penerima menanggung beban membaca, memverifikasi, dan merangkum
  • Share as a link: output AI yang panjang sebaiknya dibagikan sebagai tautan atau lampiran
    • Agar tidak memenuhi jendela percakapan dan mengganggu alurnya

Kesimpulan

  • AI berguna sebagai alat peningkat produktivitas, tetapi cara penggunaannya tidak boleh melanggar waktu dan kepercayaan orang lain
  • Teknologi baru membutuhkan etika baru (New manners), dan
    AI harus digunakan bukan sebagai pengganti berpikir, melainkan sebagai alat untuk mempercepat proses berpikir

1 komentar

 
GN⁺ 2026-03-16
Komentar Hacker News
  • Belakangan ini saya mengalami versi yang lebih mengerikan dari ticket buatan AI
    Seseorang menyalin-tempel hasil prompt “tuliskan spesifikasi produk yang detail untuk pipeline pengumpulan data uji klinis” langsung ke ticket Jira
    Isinya sama sekali tidak cocok dengan desain internal dan menambahkan banyak fitur yang tidak perlu
    Saat saya tunjukkan ke PM, dia mengelak dengan bilang “nanti kita bahas saat sprint review” dan melemparkannya dengan nada seolah harus "bermitra" dengan tim engineering
    Sepertinya ke depan kita benar-benar perlu belajar etiket AI
    • Dulu ticket Jira memang singkat tapi berguna, sekarang jadi panjang tanpa alasan dan informasi intinya justru berkurang
      Pernyataan bahwa AI meningkatkan produktivitas terdengar sangat ironis
    • Dari sudut pandang pengelola proyek open source, masalah seperti ini sudah ada sejak 1 tahun lalu
      Hanya saja butuh waktu sebelum menjalar ke pekerjaan di perusahaan
    • Istilah etiket AI memang sangat pas
      AI itu berguna, tapi menyebalkan ketika kita harus menanggapi serius sesuatu yang dibuat lawan bicara dalam 10 detik
      Sekarang rasanya seperti wild west, tapi suatu hari nanti aturan penggunaan yang benar pasti akan terbentuk
    • Jadi pada akhirnya mereka boleh saja melakukan itu, tapi kalau saya memasukkan ticket kacau mereka ke Claude lalu merilis hasilnya mentah-mentah, yang akan dimintai tanggung jawab tetap saya?
      Lucu juga
  • Sebagai engineer senior, akhir-akhir ini saya lelah dengan code review asal-asalan buatan AI
    Hari ini saya bahkan memutuskan membuat ulang proyek POC sendiri dari nol
    Selama 2 minggu saya melakukan code review, pencatatan log, sampai menulis contoh, dan membuktikan bahwa sebagian besar memang tidak berjalan
    Yang lucu, manajer melaporkan dalam seminggu bahwa itu “berjalan” lewat Claude
    Saya sendiri harus menulis 4 task Jira, banyak commit, dan 3 laporan
  • Saya tidak terlalu bersimpati pada orang-orang yang marah dengan perilaku ini
    Internet sejak awal memang bukan arena wacana berkualitas tinggi
    Sebagai konsumen konten, kita butuh alat penyaringan yang lebih baik, dan ironisnya AI mungkin justru yang bisa mewujudkannya
    Menarik melihat bahwa orang merasa konten dari “AI milik sendiri” itu oke, tapi ketika melihat buatan “AI orang lain” mereka merasa tertipu
    Pada akhirnya mungkin kita benar-benar menuju dunia ala Dead Internet Theory, tempat AI membuat konten dan AI juga yang mengonsumsinya
    Meski terdengar tidak efisien, internet memang sejak awal bukan ruang yang efisien
    • Alasan orang tidak suka konten dari “AI orang lain” itu jelas
      Kalau saya menginginkan jawaban AI, saya akan bertanya langsung sendiri
      Alasan saya bertanya ke manusia adalah karena saya menginginkan respons manusia
      Ini seperti fast food yang kadang dimakan, tapi kalau Big Mac disajikan di restoran mewah tentu bikin kesal
    • Tulisan AI selalu terasa seperti membaca post LinkedIn
      Ide sederhana dipanjangkan menjadi kalimat formal yang bertele-tele agar tampak meyakinkan
      Orang suka memasukkan pemikirannya ke LLM lalu menyukai hasilnya karena terasa cocok dengan dirinya,
      tapi dari sudut pandang orang lain itu hanya membuang waktu untuk membaca teks panjang yang tidak perlu
      Cukup rangkum saja dalam bullet point
    • Jawaban AI terlalu mudah didapat
      Karena itu, ketika seseorang mengirim jawaban yang ditulis AI, rasanya sama kasarnya dengan mengirim tautan LMGTFY
      Saya juga tahu cara bertanya ke AI, jadi mengirim itu sebagai pengganti tidak memberi nilai apa pun
    • Semua orang ingin membuat sesuatu dengan LLM, tapi tidak ada yang mau mengonsumsi hasilnya
      Pada akhirnya, kalau produsen tidak membayar konsumennya, ekosistem ini akan runtuh
    • Yang dibahas tulisan ini bukan sekadar soal kualitas konten, melainkan soal asal-usul dan keaslian
      Banyak juga yang tidak suka “AI kita sendiri”, hanya saja mereka tidak melemparkannya ke orang lain
  • sloppypasta” justru sinyal yang berguna
    Dari sudut pandang pengelola tim, orang yang terlalu sering menebarkannya jadi jelas masuk daftar yang harus dirapikan
    • Di perusahaan kami, kami bahkan tidak bisa memecat orang-orang seperti itu
      Akibatnya perusahaan berubah menjadi pasar drone pelempar AI slop
  • Ada orang yang menyalin jawaban untuk komentar review PR ke LLM lalu menempelkan hasilnya begitu saja
    • Melihat ini saya langsung teringat pada contoh PR OCaml
    • Bahkan ada yang lebih parah, seseorang benar-benar mengunggah screenshot jawaban Copilot apa adanya
  • Ironisnya, situs itu sendiri terlihat seperti website buatan LLM
    • Betul, situsnya memang dibuat dengan bantuan LLM
      Saya bukan web designer, jadi saya meminta bantuan untuk membuat situs yang enak dilihat secara visual
      Tapi esai dan panduannya semuanya ditulis manusia
    • Frontend Claude Code tampaknya suka font serif
      Meski begitu, bagus juga bahwa penggunaan AI dinyatakan dengan jelas
      Tautan AI Disclosure
  • Akhir-akhir ini ada kalimat yang sering sekali terdengar — “Chat yang bilang begitu
    Sekarang itu terdengar seperti percakapan sehari-hari
  • Ada buku yang terlintas terkait hal ini — Harry Frankfurt, On Bullshit
    Berbeda dari kebohongan, bullshit tidak memelintir fakta, tetapi memelintir niat si pembicara
    Ada juga konsep Gish-gallop yang mirip — teknik debat dengan membanjiri lawan dengan banyak klaim palsu dan poin yang sulit dibantah sehingga menghabiskan waktunya
  • Tulisan ini mengusulkan agar sloppypasta dihentikan, tapi saya justru lebih tertarik pada cara merespons dari pihak penerima
    Saya khawatir kalau bilang ke rekan kerja, “tolong berhenti memakai hasil AI yang belum diverifikasi,” akan menimbulkan ketegangan
    Akan lebih canggung lagi kalau ternyata itu benar-benar tulisan dia sendiri
    • Dalam situasi mirip, saya juga hanya membalas satu baris
      Memangnya mereka akan membalas lagi dengan teks panjang?
    • Mereka perlu dibuat sadar bahwa kalau cuma menjadi pipa untuk AI, pada akhirnya mereka sedang menggantikan diri sendiri
    • Tidak perlu dikatakan terang-terangan; cukup tanggapi hasil mereka hanya saat memang bermakna
    • Saya membuat tulisan ini sebagai panduan yang bisa dibagikan seperti nohello.net atau dontasktoask.com
      Pendekatan lewat percakapan sampingan alih-alih kanal publik ternyata efektif
      Selain itu, mengusulkan kebijakan penggunaan AI di tingkat tim agar ada landasan untuk percakapan semacam ini juga bagus
    • Menurut saya lebih baik mempermasalahkan polanya, bukan menunjuk individunya
      Kecuali dipaksakan oleh kepemimpinan teknis, pendekatan dalam bentuk review tim tampaknya lebih baik
  • Kalau bicara dengan middle manager di perusahaan besar, saya sering mendengar, “kirim dokumennya, baru saya putuskan”
    Dulu, bahkan ketika kita menulis dokumen dengan serius, tidak ada yang membacanya,
    sekarang kalau mengirim dokumen 3000 halaman buatan AI, tidak ada juga yang membacanya tapi malah disetujui
    Tidak sempurna, tapi menurut saya masih lebih baik dibanding masa ketika saya harus membacakannya sendiri di rapat seperti dulu
    • Tugas middle manager adalah membaca dokumen yang ditulis bawahannya lalu memberi umpan balik untuk memperjelasnya
      Di era AI, saya tidak tahu apakah peran itu akan menjadi tidak berguna, atau pada akhirnya kita semua hanya akan tersisa sebagai reviewer