- Penulis mengungkapkan bahwa meski telah meneliti LLM dan teknologi generasi teks selama lebih dari 10 tahun, ia justru tidak sering menggunakan LLM dalam kehidupan sehari-hari
- Saat menggunakan LLM, ia menekankan kontrol yang cermat seperti prompt engineering, pengaturan system prompt, dan penyesuaian temperature, serta lebih memilih pendekatan berbasis API dibanding frontend umum
- Untuk pekerjaan di BuzzFeed seperti pelabelan data, peringkasan klaster artikel, dan peninjauan style guide, ia memanfaatkan LLM untuk memecahkan masalah yang spesifik dan membuktikan penghematan waktu yang besar
- Ia tidak menggunakan LLM untuk menulis, tetapi memakainya untuk menguji logika tulisan melalui komentar Hacker News fiktif yang bersifat kritis
- LLM berguna untuk membantu coding, tetapi untuk pekerjaan yang kompleks atau menuntut keandalan, ia lebih memilih implementasi langsung, dan tetap bersikap skeptis terhadap agent maupun vibe coding
Jarak antara saya dan LLM
- Penulis adalah data scientist yang sangat berpengalaman dalam menggunakan alat AI generatif, mulai dari generasi teks berbasis RNN, tuning GPT-2, hingga eksperimen GPT-3/ChatGPT
- Namun, ia jarang benar-benar menggunakannya secara langsung, dan keputusan untuk memakai LLM merupakan pendekatan instrumental yang ditentukan oleh sifat serta kebutuhan tugas
Cara mengendalikan LLM
- Inti penggunaan LLM adalah mengarahkan output yang diinginkan melalui prompt engineering
- Alih-alih frontend umum (ChatGPT.com), ia lebih suka memanggil API secara langsung atau menggunakannya lewat UI backend, khususnya API Claude Sonnet
- Dengan system prompt dan pengaturan temperature, ia menyeimbangkan kreativitas dan determinisme; biasanya diatur pada
0.0 ~ 0.3 untuk menjamin output lebih dapat diprediksi
- Masalah halusinasi (menghasilkan isi yang tidak faktual) cenderung makin parah saat temperature lebih tinggi, sehingga perlu diwaspadai
Contoh pemanfaatan di pekerjaan
- Otomatisasi klasifikasi artikel BuzzFeed: menggunakan Claude API, skema klasifikasi berbasis JSON, dan pengaturan
temperature 0.0 untuk menetapkan kategori secara akurat
- Peringkasan klaster artikel: memberikan 5 artikel serupa lalu meminta judul dan deskripsi bersama, sehingga otomatisasi ringkasan klaster dapat dilakukan secara efisien
- Pemeriksaan tanda baca dan style guide: memasukkan seluruh style guide ke system prompt untuk melakukan penilaian tata bahasa berdasarkan kebijakan
- Setiap tugas dapat diselesaikan sebagai POC hanya dalam beberapa jam, dan terbukti menghemat waktu lebih dari beberapa hari dibanding cara sebelumnya
Menulis sendiri, kritik dari LLM
- Tulisan blog ditulis sendiri, karena memiliki kekhasan gaya yang sulit direplikasi LLM
- Namun, ia meminta LLM menulis komentar kritis ala pengguna Hacker News untuk mencari celah logis dalam tulisannya
- Pendekatan ini membantu meningkatkan kualitas tulisan, tetapi bukan berarti LLM menggantikan proses menulis
Pemanfaatan LLM dalam coding
- Untuk tugas yang rumit namun berulang seperti menulis regular expression atau komposisi gambar dengan Pillow, LLM sangat membantu meningkatkan produktivitas
- Sebaliknya, saat menggunakan library baru seperti Polars, muncul masalah seperti LLM keliru menganggapnya sebagai fungsi pandas
- Rekomendasi kode real-time seperti Copilot tidak disukai karena terlalu sering memicu pergantian konteks mental sehingga justru mengganggu fokus
- Ia mempertahankan pandangan bahwa dari ide yang diajukan LLM, "meminjam idenya lalu memperbaikinya sendiri" adalah pendekatan yang lebih baik
Pandangan tentang Agents, MCP, dan Vibe Coding
- MCP dan Agents memang membaik secara konsep, tetapi secara praktis belum menghadirkan use case baru
- Vibe Coding mungkin berguna untuk proyek hobi, tetapi tidak cocok untuk produk resmi dan tidak boleh dipakai sebagai cara menghindari tanggung jawab
- Ia menekankan pandangan bahwa hanya kode yang bisa dipercaya yang layak disebut profesional
Pemikiran tentang industri dan etika LLM
- Klaim bahwa "LLM tidak berguna" dianggap tidak mencerminkan realitas penggunaan nyata; yang lebih penting justru ROI jangka pendek dan masalah struktur industri
- Model open source dan infrastruktur alternatif seperti Cerebras dan Groq tetap dapat memenuhi permintaan LLM bahkan jika OpenAI menghilang
- Pada akhirnya, LLM adalah alat yang harus digunakan sesuai tujuan, dan pujian tanpa syarat maupun penolakan total sama-sama berbahaya
Penutup
- LLM adalah alat seperti memaksakan paku persegi ke lubang bundar; bisa tidak efisien, tapi juga bisa inovatif
- Yang penting adalah penilaian teknisi untuk menentukan kapan, di mana, dan bagaimana menggunakannya, dan itulah kompetensi sejati di era LLM
2 komentar
Saya setuju dengan baris paling terakhir. Selain itu, apa yang saya rasakan juga mirip, pada akhirnya AI dan LLM adalah sesuatu yang bisa digunakan dan dimanfaatkan hanya sebatas kemampuan penggunanya.
Komentar Hacker News
Ada pendapat tentang hal-hal membingungkan saat programmer berpengalaman bekerja dengan LLM
pandasadalah pustaka standar untuk memanipulasi data tabular di Python dan telah digunakan sejak 2008polars, dan LLM sering keliru menganggap fungsipolarssebagai fungsipandas, sehingga perlu memeriksa dokumentasiMenggunakan vibe coding saat membuat mockup UI atau situs web
Sudah mencoba berbagai cara untuk mendapatkan hasil terbaik dari LLM
Lebih berhati-hati terhadap output LLM untuk pertanyaan kode yang kompleks tentang pustaka yang kurang populer
Menggunakan cara menempelkan dokumentasi pustaka baru atau seluruh codebase langsung ke model berkonteks panjang
Menyukai bahwa penulis menyertakan log percakapan
Tidak menggunakan ChatGPT.com atau antarmuka pengguna umum
Antarmuka LLM modern yang tidak memungkinkan pengaturan system prompt secara eksplisit menggunakan system prompt mereka sendiri
Menetapkan batasan tertentu pada teks yang dihasilkan lebih efektif dilakukan melalui system prompt daripada prompt pengguna
Menggunakan UI backend dari masing-masing layanan LLM
Respons JSON tidak selalu bekerja seperti yang diharapkan
Menggunakan LLM untuk mempelajari hal baru atau menulis skrip singkat