- ‘Sloppypasta’ adalah tindakan menyalin begitu saja output LLM (large language model) yang belum ditinjau lalu mengirimkannya ke orang lain, dan dikritik sebagai perilaku tidak sopan karena membebankan verifikasi yang tidak perlu kepada penerima
- Pesan seperti ini menimbulkan asimetri antara membaca dan memverifikasi: pengirim mengirimnya dalam hitungan detik, tetapi penerima harus meninjau teks panjang tersebut, sehingga terjadi pelimpahan kerja
- Masalah kepercayaan juga serius; karena halusinasi (hallucination) LLM dan nadanya yang terlalu percaya diri, penerima berada dalam situasi harus secara default tidak mempercayai semua informasi
- Tulisan ini menawarkan etika dasar saat memakai AI: ‘Read’, ‘Verify’, ‘Distill’, dan ‘Disclose’, serta menekankan agar tidak membagikan output AI yang tidak diminta
- AI memang bisa meningkatkan produktivitas, tetapi penulis menekankan perlunya cara penggunaan yang tidak melanggar waktu dan kepercayaan orang lain
Definisi Sloppypasta dan pengenalan masalah
- Sloppypasta adalah gabungan dari ‘slop’ (konten AI berkualitas rendah) dan ‘copypasta’ (meme copy-paste), yang berarti meneruskan output LLM apa adanya tanpa dibaca dan diverifikasi
- Ini dianggap sebagai tindakan asimetris karena upaya meninjau dan merangkum yang seharusnya dilakukan pengirim justru dialihkan ke penerima
- Hal ini sering terjadi di Slack, Teams, email, dan lain-lain, serta mudah dikenali dari gaya bahasa AI yang formalistik dan format yang berlebihan
- Pengirim hanya butuh beberapa detik untuk mengirim pesan, tetapi penerima harus menanggung beban memverifikasi isi dan membuat penilaian
Jenis dan contoh Sloppypasta
- The Eager Beaver: kasus ketika seseorang menempelkan jawaban chatbot apa adanya dengan niat berkontribusi pada topik percakapan
- Meski dilakukan dengan niat baik, teks AI yang umum dan tanpa konteks justru mengganggu percakapan dan memutus alurnya
- The OrAIcle: bentuk penyampaian jawaban untuk pertanyaan tertentu yang dimulai dengan “ChatGPT says”
- Ini dianggap sebagai respons yang tidak sopan, mirip LMGTFY (“Let Me Google That For You”) di masa lalu
- Penerima harus menanggung beban untuk menilai sendiri kebenaran, relevansi, dan sumber isinya
- The Ghostwriter: ketika isi buatan AI dibagikan dengan menyamar sebagai tulisan sendiri
- Penerima tidak punya dasar untuk mempercayainya, dan bila informasinya salah, hal itu dapat berujung pada rusaknya kredibilitas pengirim
Mengapa ini menjadi masalah
- Ketimpangan usaha: LLM hampir menghilangkan biaya menulis, tetapi penerima tetap harus mengeluarkan upaya kognitif yang besar untuk membaca dan memverifikasi
- Akibatnya, utang kognitif (cognitive debt) menumpuk, dan pengirim kehilangan kesempatan untuk belajar serta memahami
- Runtuhnya kepercayaan: karena halusinasi dan pembuatan informasi palsu oleh LLM, prinsip “percaya tapi verifikasi” menjadi goyah
- Penerima harus secara default tidak mempercayai semua pesan, dan modal kepercayaan pengirim pun terkikis
- Hilangnya sinyal keahlian: nada percaya diri dari AI membuat keahlian nyata dan keyakinan palsu makin sulit dibedakan, sehingga kepercayaan makin melemah
- Tanggung jawab yang tidak jelas: saat terjadi kesalahan, menjadi tidak jelas siapa yang harus bertanggung jawab, AI atau pengguna
- Pada akhirnya, Sloppypasta menyebabkan hilangnya pembelajaran, runtuhnya kepercayaan, dan kelelahan komunikasi
Pendapat yang dikutip
- “Menulis adalah proses berpikir, dan ketika didelegasikan ke LLM, pemahaman dan ingatan menurun” — riset Anthropic
- “Membagikan output AI tanpa membacanya itu tidak sopan” — Simon Willison
- “Jawaban AI yang halus dan rapi, meskipun isinya benar, bisa menimbulkan kesan diabaikan” — Blake Stockton
- “Dulu, tulisan adalah bukti pemikiran manusia, tetapi sekarang tidak lagi” — Alex Martsinovich
6 prinsip untuk menghindari Sloppypasta
- Read: sebelum membagikan, harus dibaca dan dipahami sendiri
- Output yang tidak dibaca tidak bisa menjamin akurasi, relevansi, maupun kemutakhiran
- Verify: harus melakukan verifikasi fakta
- Isi yang dibagikan berarti ada jaminan kepercayaan implisit dari pengirim, dan informasi yang salah dapat berujung pada kerusakan reputasi
- Distill: sampaikan hanya inti pentingnya
- Karena struktur biaya token mendorong LLM menghasilkan jawaban yang bertele-tele, pengirim harus bertanggung jawab untuk merangkumnya
- Disclose: nyatakan dengan jelas apakah AI digunakan
- Dengan membagikan bagian mana yang ditinjau dan prompt apa yang dipakai, sinyal kepercayaan bisa dipulihkan
- Share only when requested: jangan membagikan output AI yang tidak diminta
- Sloppypasta memaksa penerima menanggung beban membaca, memverifikasi, dan merangkum
- Share as a link: output AI yang panjang sebaiknya dibagikan sebagai tautan atau lampiran
- Agar tidak memenuhi jendela percakapan dan mengganggu alurnya
Kesimpulan
- AI berguna sebagai alat peningkat produktivitas, tetapi cara penggunaannya tidak boleh melanggar waktu dan kepercayaan orang lain
- Teknologi baru membutuhkan etika baru (New manners), dan
AI harus digunakan bukan sebagai pengganti berpikir, melainkan sebagai alat untuk mempercepat proses berpikir
1 komentar
Komentar Hacker News
Seseorang menyalin-tempel hasil prompt “tuliskan spesifikasi produk yang detail untuk pipeline pengumpulan data uji klinis” langsung ke ticket Jira
Isinya sama sekali tidak cocok dengan desain internal dan menambahkan banyak fitur yang tidak perlu
Saat saya tunjukkan ke PM, dia mengelak dengan bilang “nanti kita bahas saat sprint review” dan melemparkannya dengan nada seolah harus "bermitra" dengan tim engineering
Sepertinya ke depan kita benar-benar perlu belajar etiket AI
Pernyataan bahwa AI meningkatkan produktivitas terdengar sangat ironis
Hanya saja butuh waktu sebelum menjalar ke pekerjaan di perusahaan
AI itu berguna, tapi menyebalkan ketika kita harus menanggapi serius sesuatu yang dibuat lawan bicara dalam 10 detik
Sekarang rasanya seperti wild west, tapi suatu hari nanti aturan penggunaan yang benar pasti akan terbentuk
Lucu juga
Hari ini saya bahkan memutuskan membuat ulang proyek POC sendiri dari nol
Selama 2 minggu saya melakukan code review, pencatatan log, sampai menulis contoh, dan membuktikan bahwa sebagian besar memang tidak berjalan
Yang lucu, manajer melaporkan dalam seminggu bahwa itu “berjalan” lewat Claude
Saya sendiri harus menulis 4 task Jira, banyak commit, dan 3 laporan
Internet sejak awal memang bukan arena wacana berkualitas tinggi
Sebagai konsumen konten, kita butuh alat penyaringan yang lebih baik, dan ironisnya AI mungkin justru yang bisa mewujudkannya
Menarik melihat bahwa orang merasa konten dari “AI milik sendiri” itu oke, tapi ketika melihat buatan “AI orang lain” mereka merasa tertipu
Pada akhirnya mungkin kita benar-benar menuju dunia ala Dead Internet Theory, tempat AI membuat konten dan AI juga yang mengonsumsinya
Meski terdengar tidak efisien, internet memang sejak awal bukan ruang yang efisien
Kalau saya menginginkan jawaban AI, saya akan bertanya langsung sendiri
Alasan saya bertanya ke manusia adalah karena saya menginginkan respons manusia
Ini seperti fast food yang kadang dimakan, tapi kalau Big Mac disajikan di restoran mewah tentu bikin kesal
Ide sederhana dipanjangkan menjadi kalimat formal yang bertele-tele agar tampak meyakinkan
Orang suka memasukkan pemikirannya ke LLM lalu menyukai hasilnya karena terasa cocok dengan dirinya,
tapi dari sudut pandang orang lain itu hanya membuang waktu untuk membaca teks panjang yang tidak perlu
Cukup rangkum saja dalam bullet point
Karena itu, ketika seseorang mengirim jawaban yang ditulis AI, rasanya sama kasarnya dengan mengirim tautan LMGTFY
Saya juga tahu cara bertanya ke AI, jadi mengirim itu sebagai pengganti tidak memberi nilai apa pun
Pada akhirnya, kalau produsen tidak membayar konsumennya, ekosistem ini akan runtuh
Banyak juga yang tidak suka “AI kita sendiri”, hanya saja mereka tidak melemparkannya ke orang lain
Dari sudut pandang pengelola tim, orang yang terlalu sering menebarkannya jadi jelas masuk daftar yang harus dirapikan
Akibatnya perusahaan berubah menjadi pasar drone pelempar AI slop
Saya bukan web designer, jadi saya meminta bantuan untuk membuat situs yang enak dilihat secara visual
Tapi esai dan panduannya semuanya ditulis manusia
Meski begitu, bagus juga bahwa penggunaan AI dinyatakan dengan jelas
Tautan AI Disclosure
Sekarang itu terdengar seperti percakapan sehari-hari
Berbeda dari kebohongan, bullshit tidak memelintir fakta, tetapi memelintir niat si pembicara
Ada juga konsep Gish-gallop yang mirip — teknik debat dengan membanjiri lawan dengan banyak klaim palsu dan poin yang sulit dibantah sehingga menghabiskan waktunya
Saya khawatir kalau bilang ke rekan kerja, “tolong berhenti memakai hasil AI yang belum diverifikasi,” akan menimbulkan ketegangan
Akan lebih canggung lagi kalau ternyata itu benar-benar tulisan dia sendiri
Memangnya mereka akan membalas lagi dengan teks panjang?
Pendekatan lewat percakapan sampingan alih-alih kanal publik ternyata efektif
Selain itu, mengusulkan kebijakan penggunaan AI di tingkat tim agar ada landasan untuk percakapan semacam ini juga bagus
Kecuali dipaksakan oleh kepemimpinan teknis, pendekatan dalam bentuk review tim tampaknya lebih baik
Dulu, bahkan ketika kita menulis dokumen dengan serius, tidak ada yang membacanya,
sekarang kalau mengirim dokumen 3000 halaman buatan AI, tidak ada juga yang membacanya tapi malah disetujui
Tidak sempurna, tapi menurut saya masih lebih baik dibanding masa ketika saya harus membacakannya sendiri di rapat seperti dulu
Di era AI, saya tidak tahu apakah peran itu akan menjadi tidak berguna, atau pada akhirnya kita semua hanya akan tersisa sebagai reviewer