7 poin oleh GN⁺ 2025-10-13 | 1 komentar | Bagikan ke WhatsApp
  • Anthropic menyediakan tutorial prompt engineering yang memandu pembuatan prompt yang dioptimalkan untuk model Claude secara interaktif dan bertahap
  • Pengguna dapat langsung berlatih dan memahami struktur prompt yang baik, contoh kegagalan, serta teknik perbaikan yang efisien
  • Setiap bab mencakup contoh latihan dan penjelasan, sehingga memberikan pengalaman yang mendekati penggunaan nyata
  • Terdiri dari 9 bab dari tingkat dasar hingga lanjutan serta lampiran, sehingga pengguna dapat mengembangkan kemampuan menulis prompt dan memecahkan masalah secara langsung
  • Tutorial ini juga menyediakan versi Google Sheets untuk meningkatkan aksesibilitas dan kegunaan

Tutorial Interaktif Prompt Engineering dari Anthropic

  • Materi pembelajaran open source yang menyediakan pengetahuan desain prompt yang dioptimalkan untuk model AI Claude
  • Mirip dengan alur pembelajaran chatbot berbasis OpenAI, tetapi berkat susunan yang berfokus pada pemahaman keunggulan dan keterbatasan model Claude serta latihan praktis, tutorial ini lebih unggul dalam penerapan nyata di pekerjaan dan lebih praktis dibanding tutorial lain
  • Secara khusus, karena pengguna dapat benar-benar menulis prompt sambil bereksperimen dengan hasilnya, ini memberikan keuntungan besar bagi engineer pemula

Pengenalan Kursus dan Tujuan

  • Tutorial ini memandu secara bertahap cara merancang dan memanfaatkan prompt terbaik di dalam Claude
  • Setelah menyelesaikan kursus, pengguna dapat menguasai hal-hal berikut
    • Memahami struktur prompt yang efektif
    • Mengenali pola kegagalan yang umum serta cara perbaikan prioritas (aturan 80/20)
    • Memahami kekuatan dan kelemahan model Claude
    • Memiliki kemampuan membangun prompt untuk diterapkan pada berbagai tugas umum

Struktur Kursus dan Konten

  • Terdiri dari 9 bab (dasar ~ lanjutan) dan lampiran pendalaman
  • Setiap bab menyediakan penjelasan teori dan latihan langsung sekaligus
  • Di akhir setiap bagian tersedia ruang di "Example Playground" untuk memasukkan prompt secara langsung dan menguji perubahan respons
  • Kunci penjelasan disertakan untuk semua contoh
  • Model dasar tutorial ini adalah Claude 3 Haiku yang paling ringan, cepat, dan murah. Jika diperlukan, ada juga pembahasan tentang Sonnet dan Opus yang memiliki kecerdasan lebih tinggi
  • Dapat juga digunakan dalam versi ekstensi Google Sheets, sehingga akses untuk belajar menjadi lebih tinggi

Daftar Kurikulum

  • Dasar
    • Chapter 1: Struktur prompt dasar
    • Chapter 2: Cara menulis instruksi yang jelas dan langsung
    • Chapter 3: Memberikan peran
  • Menengah
    • Chapter 4: Memisahkan data dan instruksi
    • Chapter 5: Menentukan format output dan membuat percakapan untuk Claude
    • Chapter 6: Pemikiran awal (mengeluarkan pemikiran langkah demi langkah)
    • Chapter 7: Cara memanfaatkan contoh
  • Lanjutan
    • Chapter 8: Mencegah halusinasi (Hallucination)
    • Chapter 9: Membangun prompt yang kompleks (kasus per industri)
      • Contoh: chatbot, layanan hukum, layanan keuangan, coding, dan berbagai masalah penerapan nyata menurut jenis pekerjaan
  • Lampiran
    • Metode di luar prompt standar
      • Teknik lanjutan seperti prompt chaining, penggunaan tools, pencarian/integrasi hasil pencarian, dan lainnya

Panduan Pemanfaatan

  • Tutorial ini disarankan untuk diikuti secara berurutan per bab
  • Dengan latihan yang berfokus pada praktik dan penjelasan bertahap, bahkan engineer pemula dapat secara alami mempelajari kemampuan desain prompt yang benar-benar bisa dipakai di dunia kerja
  • Semua nama produk dan model ditulis sebagaimana aslinya, sehingga dapat langsung digunakan bahkan di lingkungan kerja berbasis bahasa Inggris

Fitur Tambahan dan Informasi Open Source

  • Di GitHub, saat ini telah mencatat lebih dari 19.400 Stars dan 1.900 Fork
  • Bahasa pengembangan utamanya adalah Jupyter Notebook, dan juga mencakup sebagian kode Python
  • Tidak ada paket distribusi terpisah, dan semua materi dapat dirujuk secara bebas sebagai open source

1 komentar

 
GN⁺ 2025-10-13
Komentar Hacker News
  • Penggunaan kata "engineering" dalam konteks seperti ini sangat mengganggu, menurut saya ini tidak bisa disebut engineering yang sesungguhnya; engineering adalah merancang dan membangun secara dapat diprediksi berdasarkan pengetahuan yang terakumulasi selama bertahun-tahun, hukum fisika, aturan, dan sebagainya, sedangkan yang dilakukan sekarang tidak lebih dari mencoba secara membabi buta sampai keluar hasil

    • Saya rasa setiap kata punya banyak makna; "engineering" dalam "prompt engineering" punya nuansa yang mirip tapi berbeda, seperti dalam "social engineering". Misalnya definisi nomor 2 dari engineering menurut Google adalah 'tindakan memakai tipu daya untuk mencapai tujuan', dan kalau dilihat juga di definisi ketiga Merriam-Webster, collins dictionary, yourdictionary, memang jelas ada makna nonteknis seperti “manipulasi yang cerdik, menyusun rencana”. Itu adalah makna sekunder yang sudah mapan dari kata tersebut

    • Saya makan sereal sambil meninjau spesifikasi kotak sereal, saya melakukan itu setiap pagi, lalu menerapkan skill engineering untuk naik bus juga, karena saya mencari nafkah dari prompt engineering; belakangan ini rasanya terlalu banyak kata yang kehilangan makna aslinya, jadi syukurlah ternyata bukan cuma saya yang kesal

    • Saya tetap lebih suka pendekatan Kanada, yaitu sistem yang mewajibkan lisensi dari badan regulator profesi teknik di tiap provinsi untuk bisa memakai gelar engineer; di AS rasanya berlebihan ketika semua software developer, montir, teknisi pemasangan HVAC, sampai tukang ledeng pun disebut engineer

      1. Software engineer hampir tidak punya pengetahuan fisik yang mendalam tentang sistem komputer, dan pekerjaan nyatanya lebih dekat ke filsafat atau sedikit matematika ketimbang ilmu empiris, 2) tampaknya Anda kurang mengikuti tren perkembangan AI; sudah ada terminologi khusus, referensi, dan dokumentasi untuk pekerjaan prompt, seperti halnya di ilmu komputer; bidang ini sudah menjadi ranah tersendiri yang tidak bisa dipelajari di sekolah mana pun, dan tren sekarang bahkan tidak mau merekrut orang tanpa pengalaman praktik
    • Saya rasa kontroversi seperti ini sebenarnya bisa diajukan persis sama pada pekerjaan banyak "engineering team" juga; ada asumsi implisit bahwa kalau seorang engineer melakukannya maka pekerjaan itu otomatis adalah engineering, dan lebih jauh lagi ada asumsi mendalam tentang apakah software itu sendiri layak disebut software engineering

  • Saya rasa kata "Engineering" adalah perangkat retoris untuk memberi kesan pada orang-orang bahwa ini bukan sekadar menulis kalimat; jujur saja, kalau disebut "prompt writing" mungkin akan dianggap remeh, jadi bagi orang-orang yang tidak suka istilah skill "soft", ini akan terasa makin mengganggu

  • Rasanya seperti episode "alkimia untuk pemula" hari ini, mengingatkan saya pada kasus ketika kecepatan algoritme naik 30% di benchmark set hanya karena random seed diatur ke 7, bukan 8, bukan 6, tapi 7

    • Anda mungkin tidak suka situasi yang makin nondeterministik dan kompleks seperti ini, tapi inilah pekerjaan kita sekarang; kalau saya tidak melakukannya, pada akhirnya seseorang tetap harus melakukannya. Dalam proyek aplikasi AI, saya memisahkan prompt engineering dari engineering yang sebenarnya, menyiapkan semua alat yang diperlukan (komponenisasi, version control, alat evaluasi) agar prompt engineering bisa dilakukan setersistematis mungkin, lalu menyerahkannya ke pakar domain; kalau Anda menganggap prompt engineering cuma setara memilih seed, maka menurut saya Anda tidak seharusnya menulis prompt
  • Saat membaca tulisan ini, hal penting yang saya sadari adalah memikirkan urutan output seperti apa yang ingin diambil; misalnya meminta model mengekstrak bukti atau indikator terlebih dahulu sebelum menjawab. Saya tahu LLM adalah autocomplete probabilistik, tapi saya belum pernah memikirkan priming dengan cara seperti ini

    • Cara ini mungkin tidak berlaku untuk model reasoning; model reasoning menjalani proses berpikir sesuai cara yang diinginkan sebelum memberi jawaban, jadi pengaruh urutan output terhadap akurasi lebih kecil. Mungkin inilah alasan OpenAI ingin memaksakan reasoning

    • Saya biasanya meminta model mengekstrak dulu kutipan singkat dari sumber yang ditemukan online, jika memang relevan; ini sedikit membantu memperkuat keandalan informasi. Belakangan ini ini sangat saya butuhkan saat organisasi kami membangun Cloudflare Zero Trust

    • Sebaliknya, kalau Anda meminta jawabannya dulu lalu baru meminta alasannya, model akan masuk ke "mode ngaco" dengan mengeluarkan jawaban acak lalu merasionalisasikannya agar terdengar masuk akal. Jauh lebih baik meminta model lebih dulu mengekstrak pro dan kontra secara objektif, lalu baru menarik kesimpulan, karena jawabannya jadi jauh lebih hati-hati

  • Menurut saya sebaiknya judul kiriman ini diberi "(2024)"

  • Untuk masalah sulit, tip prompt engineering terbaik menurut saya adalah "membuka lalu menyempit". Maksudnya, pertama jelaskan masalah dan konteks dengan jelas, lalu minta AI menganalisis dan mencari semua opsi serta pendekatan yang mungkin agar informasi diperluas semaksimal mungkin; setelah itu minta daftar kelebihan dan kekurangan tiap pendekatan, lalu pilih solusi yang paling sesuai. Untuk masalah mudah, semua ini bisa dilewati dan cukup tanya langsung saja, tapi pada masalah sulit, kalau langsung minta jawaban, model hanya akan mengarang sesuatu yang terdengar masuk akal, jadi harus selalu mulai dari dasar yang realistis. Karena itu dibutuhkan alur konteks yang spesifik - analisis opsi - pros & cons - pilihan akhir

    • Cara seperti ini tampaknya juga bisa diterapkan ke pemecahan masalah lain di luar masalah AI
  • Ini juga komentar yang meminta agar 2024 ditambahkan ke judul

  • Saya merasa kita sedang belajar cara mengajarkan ke AI pekerjaan yang dulu kita lakukan sendiri, lalu belajar lagi bagaimana menyuruh AI mengerjakan pekerjaan itu secara efektif; jika teknologi ini tidak didukung oleh keseluruhan ekonomi AS, mungkin ia bisa mengembang seperti balon udara panas lalu tiba-tiba turun lagi

  • Mirip komentar-komentar lain, ini tidak terasa seperti engineering ortodoks, tetapi saya rasa Anthropic telah melakukan riset yang cukup keren di bidang interpretabilitas model; kalau alat itu dirilis sebagai public API, mungkin kita bisa membangun feedback loop untuk membandingkan perbedaan state internal model tergantung prompt dan melakukan tuning yang lebih sistematis

  • Tutorial ini ditulis untuk tiga model (Sonnet, Haiku, Opus 3); ada beberapa pelajaran yang masih berlaku sampai sekarang, tetapi ada juga yang tidak terlalu penting untuk model RL yang lebih pintar (seperti Sonnet 4.5). Sebagai referensi, Claude 3 Haiku adalah model yang paling kecil, cepat, dan murah, sedangkan Sonnet dan Opus lebih cerdas, dengan Opus sebagai yang paling unggul

    • Saya rasa bab 3 dan 6 kurang penting menurut standar saat ini; dengan asumsi pembacanya adalah orang yang menangani prompt yang iteratif atau menuntut akurasi, saya penasaran apakah ada bagian lain yang juga jadi kurang penting