33 poin oleh GN⁺ 2026-01-29 | 9 komentar | Bagikan ke WhatsApp
  • Percakapan dengan LLM membantu meningkatkan kejernihan berpikir dan kemampuan mengekspresikan diri dalam bahasa
  • Pikiran yang sudah lama dipahami secara implisit tetapi sulit diungkapkan dengan kata-kata dapat dirapikan oleh LLM menjadi kalimat, sehingga yang terjadi bukan pembelajaran baru, melainkan momen penyadaran
  • Seperti pengalaman para programmer, intuisi, pengenalan pola, dan penilaian yang sulit dijelaskan sering kali terakumulasi dalam bentuk pra-bahasa
  • LLM sangat unggul dalam mengurai struktur yang samar menjadi bahasa, serta memecah dan menyusun alasan agar pemikiran bisa direkonstruksi
  • Ketika pikiran tertambat dalam kalimat, asumsi dan intuisi dapat diuji, direvisi, atau dibuang, sehingga kualitas berpikir pun berubah
  • Melalui proses verbalisasi yang berulang, presisi monolog batin meningkat dan kita menjadi lebih sadar akan cara berpikir kita sendiri

Banyak dari apa yang kita ketahui bersifat implisit (tacit knowledge)

  • Programmer dan developer sering kali secara intuitif menyadari bahwa sebuah desain keliru bahkan sebelum bisa menjelaskannya dengan kata-kata
    • Misalnya, mereka merasa ada yang salah pada desain, atau mendeteksi bug bahkan sebelum berhasil mereproduksinya
    • Mereka segera menyadari abstraksi yang keliru, tetapi membutuhkan waktu untuk menjelaskannya
  • Pengetahuan implisit seperti ini bukanlah kegagalan, melainkan hasil dari pengalaman yang terkompresi menjadi pola yang berpusat pada tindakan
    • Otak menyimpan pengetahuan dalam bentuk pola yang dioptimalkan untuk eksekusi, bukan untuk penjelasan
  • Namun, untuk refleksi, perencanaan, dan pendidikan, ekspresi bahasa sangat penting, dan ide yang tidak terungkap sulit ditinjau atau dibagikan

LLM sangat mahir pada masalah yang kebalikannya

  • LLM adalah alat yang dioptimalkan untuk mengubah konsep dan struktur yang samar menjadi kalimat
  • Saat pengguna mengajukan pertanyaan yang “terasa benar secara samar tetapi sulit dijelaskan alasannya”, LLM akan menyusun dan menyajikan alasan itu langkah demi langkah
  • Setiap poin disusun secara ortogonal (orthogonal), sehingga pengguna dapat menukar dan menyusunnya ulang untuk memperluas pemikirannya

Ketika pikiran diungkapkan dengan kata-kata, pikiran itu berubah

  • Ketika LLM merapikan ide menjadi kalimat, pengguna bisa menguji ide itu di dalam pikiran
  • Intuisi yang kabur berubah menjadi pembedaan yang diberi nama, dan asumsi implisit pun muncul ke permukaan sehingga bisa diverifikasi, dibuang, atau direvisi
  • Seperti menulis yang memurnikan pemikiran, LLM berbeda terutama dalam hal kecepatan
    • Kita bisa dengan cepat menjelajahi pikiran yang baru setengah terbentuk, membuang penjelasan yang keliru, lalu mencoba lagi
    • Proses ini mendorong tahapan berpikir yang sebelumnya sering dilewati

Umpan balik berulang dan internalisasi cara berpikir

  • Seiring waktu, bahkan tanpa LLM pun kita mulai bertanya pada diri sendiri, “Bisakah aku mengungkapkan dengan tepat apa yang sedang kupikirkan, kurasakan, dan kupercayai saat ini?”
  • Alih-alih secara langsung memperbaiki cara berpikir, LLM lebih tepat dipahami sebagai alat yang meningkatkan kemampuan berbahasa dan efisiensi monolog batin
  • Karena penalaran bergantung pada ekspresi yang eksplisit, maka peningkatan kejernihan bahasa pada akhirnya mengarah pada kejernihan berpikir
  • Semakin sering proses ini diulang, semakin baik kita menyadari apa yang sebenarnya kita pikirkan

9 komentar

 
sudosudo 2026-01-29

Seseorang harus punya metakognisi agar bisa berpikir dengan baik; adanya LLM bukan berarti kemampuan berpikir otomatis meningkat. Dan orang yang memakai LLM sejak awal kemungkinan metakognisinya juga bakal hancur..

 
woung717 2026-01-29

Hmm, sebaliknya, tampaknya juga ada kasus di mana orang justru terjebak dalam kerangka pikirnya sendiri karena respons yang keliru dan terlalu menjilat. Sebagai alat untuk membantu merapikan pemikiran, ini memang berguna, tetapi menurut saya tetap penting untuk selalu memandang respons AI dengan sikap kritis.

 
y15un 2026-01-30

Jadi saya menggunakannya dengan instruction Gemini yang disetel ke "jangan terlalu memuji atau mengagung-agungkan pengguna. Jawablah dengan gaya bahasa yang netral dan ilmiah/akademis. Selalu sertakan referensi." Masih ada kalanya instruksi itu dilanggar (misalnya, meskipun sudah diinstruksikan untuk tidak menyertakan video YouTube, kadang tetap disisipkan), tetapi hasilnya tetap jauh lebih rapi dan fokus pada inti jawaban.

 
slimeyslime 2026-01-30

Instruksinya ringkas dan bagus. Saya juga akan mencoba menerapkannya.

 
GN⁺ 2026-01-29
Opini Hacker News
  • Tulisan ini sesuai dengan pengalamanku juga. Dengan berbicara dengan LLM, aku bisa membuat ide yang sebelumnya samar menjadi konkret dan memperluas pemahaman dengan menjelajahi topik terkait
    Dulu, bahkan saat muncul rasa penasaran, aku tidak tahu harus mulai dari mana, tetapi ChatGPT memberi tahu apakah ide itu sudah menjadi konsep yang ada, siapa yang menelitinya, dan sumber primer apa yang tersedia
    Rasanya seperti lubang kelinci untuk menjelajahi dunia. Hambatan masuk ke pengetahuan jadi lebih rendah, dan bahkan menulis, yang dulu terasa membosankan, kini terasa baru. Sekarang aku jadi ingin mencoba menulis sendiri

    • Pada awal 2000-an, Wikipedia memainkan peran seperti itu. Sekarang rasanya seperti ensiklopedia yang bisa diajak berbicara
      Hanya saja, aku khawatir suatu hari perusahaan akan mencoba lebih jauh memonetisasi LLM. Bisa saja percakapan diarahkan ke hal-hal seperti dorongan untuk membeli sesuatu
    • Aku lemah dalam matematika, tetapi tertarik pada emulasi synthesizer analog. Aku sempat buntu saat mencoba memahami terobosan ‘zero delay filter’ dari pertengahan 2000-an, tetapi akhirnya paham setelah berdialog dengan LLM
      Aku jadi mengerti cara kerja algoritma aproksimasi yang menyelesaikan masalah loop umpan balik. Menurutku, cara belajar seperti ini juga akan sangat membantu para siswa
    • Menggunakan LLM seperti rubber duck adalah cara pemanfaatan yang luar biasa
    • Bukankah George Orwell pernah berkata, “menulis adalah berpikir
    • Aku ingin mengibaratkan LLM dengan kopi. Kopi adalah alat peningkat produktivitas yang bisa didapat di mana saja, dan meski jenisnya beragam, pada akhirnya ‘biji kopi tetaplah biji kopi’
      AI juga terlihat mirip. Esensinya sama, hanya hiasan di sekelilingnya yang makin mewah. Pasar kopi global bernilai sekitar 500 miliar dolar, dan menurutku pasar AI tak lama lagi juga akan mencapai angka sebesar itu
  • Aku tidak bermaksud menyangkal pengalaman orang lain, tetapi berpikir adalah tindakan yang memperkuat dirinya sendiri
    Dalam proses bertanya dan menjawab untuk diri sendiri, pikiran baru muncul. Kita tidak boleh melupakan kemampuan ini

    • Menurut pengalamanku, LLM punya dua keunggulan dibanding berpikir sendirian
      1. Bisa mengakses indeks pengetahuan yang sangat besar dan memberi tahu informasi yang tidak kuketahui
      2. Merespons secara instan dan menarik, sehingga mengurangi rasa lelah. Berkat itu, aku bisa tetap fokus lebih lama
        Namun sayangnya, ia terlalu yes-man sehingga kurang mampu mengajukan bantahan. Meski begitu, berpikir bersama LLM tetap punya nilai tersendiri
    • Tidak ada yang menyangkal fakta bahwa ‘pikiran mengembangkan pikiran’
      Namun, proses menuangkannya ke dalam tulisan menuntut pemikiran metakognitif yang jauh lebih dalam daripada sekadar berpikir. Karena itu, hasilnya mengarah pada pemikiran yang lebih terperinci
    • Dalam pengalamanku, ada semacam ‘efek plasebo rekursif
      Saat merasa pikiranku membaik → menjadi bersemangat → makin tenggelam → hasilnya membaik → makin bersemangat → berulang
      Siklus seperti ini juga bisa terjadi tanpa LLM
    • Aku hampir setuju, tetapi dengan penalaran murni saja, kadang informasinya tidak cukup
      Percakapan dengan LLM sering kali terpecah-pecah dan tidak efisien. Pada akhirnya manusia tetap harus menentukan arahnya
      Percakapan antarmanusia memang lambat, tetapi masih punya kemampuan penalaran yang lebih unggul. LLM bagus untuk ringkasan atau titik awal eksplorasi, tetapi wawasan mendalam datang dari buku dan percakapan dengan manusia
    • Konsep ‘rubber duck debugging’ layak dijadikan rujukan (tautan Wikipedia)
      Hanya dengan merapikan pikiran ke dalam kata-kata, bagian otak yang berbeda ikut aktif dan membantu pemecahan masalah
  • Setelah 20 tahun mengerjakan hal lain, aku baru-baru ini mulai mengajar kuliah ilmu komputer tingkat sarjana
    Awalnya kupikir akan memakai LLM sebagai asisten coding, tetapi ternyata jauh lebih berguna untuk menyempurnakan framing konseptual
    LLM membantuku menjelaskan dengan lebih jelas filsafat desain perangkat lunak milikku yang tidak konvensional

    • Hipotesis LLM dari Geoffrey Hinton menarik. Karena LLM harus mengompresi pengetahuan dunia ke dalam miliaran parameter, ia tampaknya harus sangat mahir dalam berpikir analogis
    • Aku penasaran dengan filsafat desain yang tidak konvensional milikmu. Aku jadi merasa para mahasiswamu beruntung
  • Kalau melihat teks aslinya, gaya bahasanya terasa terlalu mirip LLM
    Struktur berulang seperti “This is not <>, this is how <>” terasa artifisial. Orang sungguhan tidak menulis seperti ini

    • Aku juga merasakan kejanggalan serupa. Struktur kalimatnya terlalu berupa daftar mekanis, sehingga alur pesannya rusak
      Penulis mengatakan ‘menulis juga membantu berpikir, tetapi percakapan dengan LLM lebih cepat dan lebih sedikit friksi’, namun justru friksi dalam ekspresi membesar sehingga daya sampaiknya menurun
    • Tautan terkait pangram.com
  • Aku setuju bahwa LLM bisa mengangkat pengetahuan tacit seseorang
    Pada saat yang sama, tulisan yang naik kemarin tentang ‘utang kognitif (cognitive debt) saat menggunakan AI’ (tautan) juga masuk akal. Sepertinya kedua posisi itu sama-sama benar

    • Pada akhirnya, semuanya tergantung pada cara berinteraksi dengan LLM
      Jika dipakai seperti sedang ‘bercakap-cakap’ sambil melempar pertanyaan pribadi, utang kognitif bisa menumpuk
      Sebaliknya, jika digunakan secara imperatif untuk ‘memberi instruksi kerja’, kita bisa mendapatkan hasil yang dapat diverifikasi
      Misalnya, “Tulis esai tentang burung di daerahku” bisa disalahartikan sebagai karya kreatif manusia, tetapi
      “Bagaimana penagihan pelanggan bekerja di codebase ini?” menghasilkan kode deterministik yang bisa diverifikasi
  • Aku setuju dengan pengamatan penulis. LLM, seperti rubber duck debugging, membuat kita menata pikiran sendiri saat menjelaskan masalah
    Bedanya, ‘rubber duck’ ini memiliki pengetahuan profesional yang sangat luas

  • Aku juga sering mengalami pikiran menjadi lebih terasah saat membicarakan ide dengan LLM
    Dalam proses menjelaskan, pikiranku jadi lebih terstruktur, dan berkat pertanyaan yang muncul seketika, aku bisa mengeksplorasi sudut pandang baru

  • Aku tidak setuju dengan definisi ‘berpikir yang baik’ dalam tulisan ini
    Bagiku, berpikir yang baik itu logis, rinci, dan mampu melihat berbagai kemungkinan dengan jelas
    LLM cenderung memperkuat intuisi alih-alih memverifikasinya, sehingga justru bisa mengaburkan pemikiran

  • Aku menggunakan LLM sebagai lawan diskusi intelektual
    Ini berguna untuk menguji ideku dan menyelidiki apakah sudah ada orang lain yang memikirkan hal serupa

  • Berbicara dengan LLM itu menakjubkan sekaligus membuat frustrasi
    Fakta bahwa ini adalah komputer yang memahami bahasa alami terasa luar biasa, tetapi ketidakmampuannya untuk belajar adalah batasan
    Dengan developer junior, kepercayaan tumbuh seiring waktu, tetapi pada LLM hal itu tidak mungkin

    • Namun, untuk tiap proyek aku membuat file agent.md dan menggunakannya untuk menumpuk konteks secara bertahap
      Jika file ini berisi pendekatan pemecahan masalah yang kusukai, cara build·test·deploy, dan sebagainya, LLM jadi lebih jarang membuat asumsi yang aneh
      Aku mengelolanya semacam ‘Sepuluh Perintah LLM’. Jika file ini dibaca setiap kali memulai sesi baru, hasilnya jadi jauh lebih konsisten
      Memang tidak sempurna, tetapi ini adalah cara praktis untuk melengkapi keterbatasan LLM yang tidak bisa belajar sendiri
 
[Komentar ini disembunyikan.]
 
[Komentar ini disembunyikan.]
 
[Komentar ini disembunyikan.]
 
dogtree 2026-01-29

Anda sudah sadar.