20 poin oleh GN⁺ 2026-02-02 | 1 komentar | Bagikan ke WhatsApp
  • Kritik bahwa penggunaan large language model (LLM) dapat melemahkan kemampuan kognitif manusia tidak bisa dijawab hanya dengan mengatakan bahwa “bahan untuk berpikir itu tak terbatas, jadi tidak perlu khawatir”, karena argumen itu mengabaikan kompleksitas masalah
  • Saat LLM digunakan dalam penulisan dan komunikasi pribadi, hakikat bahasa yang membuat makna dan ekspresi tak bisa dipisahkan dapat rusak, dan orang kehilangan kesempatan untuk menemukan suaranya sendiri
  • Aktivitas sehari-hari seperti merencanakan liburan, menyiapkan pesta, atau menulis pesan pribadi juga merupakan pengalaman yang bernilai pada dirinya sendiri, dan mengotomatiskannya berisiko mengerdilkan makna hidup
  • Bahkan dalam pekerjaan yang tampak berulang dan membosankan, pengetahuan implisit (tacit knowledge) terbentuk, sehingga jika semua didelegasikan ke chatbot demi efisiensi, kerugian jangka panjang bisa muncul
  • Menentukan batas yang tepat untuk penggunaan chatbot bukan persoalan efisiensi, melainkan soal nilai-nilai manusia dan arah komunitas

Pendahuluan: latar belakang dan kesadaran masalah

  • Ada kritik bahwa penggunaan LLM dapat melemahkan kemampuan kognitif, dan untuk sejumlah teknologi serta kemampuan, prinsip “use it or lose it” terasa meyakinkan baik secara intuitif maupun empiris
  • Tulisan Andy Masley, The lump of cognition fallacy, menunjukkan bahwa anggapan seolah jumlah total pemikiran itu tetap adalah sebuah kekeliruan; karena pemikiran melahirkan pemikiran baru, menyerahkan sebagian kepada mesin tidak otomatis mengurangi pemikiran manusia
  • Tulisan ini berangkat dari pembahasan Masley, tetapi ingin menjelaskan bahwa alih daya berpikir bukan sekadar masalah efisiensi, serta menyoroti kompleksitas dan dampak jangka panjangnya

Kapan penggunaan LLM sebaiknya dihindari

  • Menurut Masley, “kasus ketika alih daya kognitif itu merugikan” adalah sebagai berikut
    • Aktivitas yang membentuk pengetahuan implisit yang kompleks untuk hidup di dunia masa depan
    • Tindakan yang mengekspresikan kepedulian dan kehadiran terhadap orang lain
    • Pengalaman yang bernilai pada dirinya sendiri
    • Situasi ketika pemalsuan atau perwakilan menjadi bentuk penipuan
    • Situasi ketika hasilnya sangat penting dan kepercayaan penuh terhadap pihak yang dialihdayakan sulit diberikan
  • Daftar ini pada umumnya dapat disetujui, tetapi masalahnya adalah aktivitas yang masuk ke kategori tersebut jauh lebih luas daripada yang terlihat, dan di sinilah perbedaan pandangan mendasar dengan Masley muncul

Komunikasi dan penulisan pribadi

  • Bukan hanya dalam situasi intim seperti pesan di aplikasi kencan, tetapi juga dalam seluruh ranah komunikasi pribadi, cara mengungkapkan sesuatu memiliki makna yang esensial
  • Dalam komunikasi ada ekspektasi yang dipahami bersama meski tidak diucapkan, dan saat mesin mulai merapikan atau mengubah ekspresi, ekspektasi itu pun runtuh
  • Karena pemilihan kata dan susunan kalimat memuat begitu banyak makna, campur tangan LLM dapat merusak kualitas komunikasi langsung
  • Di media Norwegia, penggunaan LLM untuk tulisan publik tanpa mengungkapkannya pernah menjadi kontroversi, dan ini menunjukkan perlunya memperjelas kembali apa yang kita harapkan dari komunikasi
  • Dua sanggahan terhadap klaim bahwa LLM membantu ekspresi bagi non-native speaker atau orang dengan gangguan belajar
    • Dalam kebanyakan kasus, makna dan ekspresi tidak dapat dipisahkan, dan kata-kata serta kalimat itu sendiri adalah makna
    • Jika ekspresi diserahkan pada mesin, kesempatan untuk bertumbuh dan belajar berkurang, dan orang kehilangan kesempatan menemukan suaranya sendiri
  • Batas antara koreksi ejaan/tata bahasa dan LLM yang pada dasarnya menuliskan sesuatu untuk kita terlalu tipis, sehingga sulit dibedakan dengan antarmuka chatbot saat ini
  • Dari sudut pandang pragmatis, banyak orang ingin memakai LLM demi efisiensi kerja, tetapi kualitas pembuatan teks dalam bahasa non-Inggris seperti Norwegia masih sangat rendah (lihat laporan Dewan Bahasa Norwegia)
  • LLM tampak berguna untuk menulis dokumen birokratis seperti pengajuan keluhan atau klaim asuransi, tetapi apa yang terjadi jika semua pihak sama-sama memakai generator kata masih belum jelas
  • Fenomena yang benar-benar teramati adalah, dalam magang, proposal riset, dan lamaran kerja, jumlah pengajuan melonjak tajam tetapi kualitas keseluruhan menurun
  • Saat mahasiswa memakai chatbot yang sama dalam tugas kolaboratif, keragaman ide menurun drastis
  • Kemampuan menulis hanya meningkat dengan benar-benar menulis sendiri, dan hal yang sama berlaku untuk kemampuan berpikir
  • Teks fungsional seperti kode, resep, instruksi, dan dokumentasi relatif kurang terdampak oleh masalah ini
  • Sebaliknya, pada teks yang ditulis penulis pribadi untuk audiens manusia, ada ekspektasi peran dan kepercayaan yang khas, dan terkikisnya kepercayaan ini bisa menjadi kerugian bagi umat manusia secara keseluruhan

Pengalaman yang bernilai

  • Setiap kali melihat iklan yang menyarankan agar perencanaan liburan, persiapan pesta, bahkan pesan untuk keluarga dan teman diserahkan kepada LLM, muncul rasa keterasingan terhadap masyarakat teknologi
  • Banyak aktivitas dalam hidup modern memang bisa terasa seperti pekerjaan remeh, tetapi pada saat yang sama, sikap yang memperlakukan hampir segala hal dalam hidup sebagai pekerjaan remeh itulah masalahnya
  • Ekspektasi masyarakat modern bahwa kita harus bisa melakukan apa pun yang diinginkan kapan saja dan menghindari hal yang tidak ingin dilakukan justru melahirkan ketidakpuasan yang terus-menerus
  • Secara teori dapat disetujui bahwa otomatisasi bisa memberi waktu untuk hal yang lebih bermakna, tetapi masalahnya kita sudah sampai pada tahap ketika bahkan merencanakan liburan pun dianggap pekerjaan remeh yang ingin dihindari
  • Jika AI hidup di zaman ketika AI bisa mengotomatiskan “hampir segala sesuatu”, semoga kemampuan itu justru menjadi pemicu untuk kembali menyadari apa yang layak diberi waktu dan upaya dalam hidup

Membangun pengetahuan

  • Saya setuju dengan klaim bahwa “chatbot tidak seharusnya dipakai dalam proses membangun pengetahuan implisit kompleks yang diperlukan untuk hidup di dunia masa depan”, dan dalam praktiknya kategori ini mencakup sebagian besar kehidupan sehari-hari
  • Sejak smartphone menyebar luas, muncul anggapan bahwa “kalau perlu tinggal cari di internet, jadi tidak perlu menghafal”, tetapi tindakan memperoleh dan mengingat pengetahuan itu sendiri adalah proses inti dalam belajar
  • Dari pengalaman belajar piano jazz, untuk mahir berimprovisasi tidak cukup hanya berlatih improvisasi; seseorang harus berulang kali mempelajari lagu dan frasa yang sudah ada sampai menyatu dalam tubuh, agar intuisi tentang apa yang terdengar baik dapat terbentuk
  • Dalam hal ini cara manusia belajar mungkin terlihat mirip dengan model machine learning, tetapi itu tidak berarti kita boleh benar-benar memperlakukan manusia sebagai entitas semacam itu
  • Kita sangat meremehkan pengetahuan yang terakumulasi melalui pekerjaan membosankan dan berulang, dan jika semua itu diserahkan kepada chatbot di bawah tekanan efisiensi, ada risiko kehilangan pengetahuan dan kepekaan yang penting dalam jangka panjang

Sanggahan terhadap konsep “extended mind”

  • Masley berpendapat bahwa kognisi tidak terbatas pada otak, tetapi juga terjadi dalam lingkungan fisik, sehingga tak ada perbedaan esensial apakah proses itu terjadi pada neuron di otak atau rangkaian di ponsel
  • Pernyataan seperti ini adalah klaim yang terlepas dari kenyataan, karena proses yang terjadi di otak tidak bisa disamakan begitu saja dengan pemrosesan yang dilakukan komputer
  • Pandangan yang mereduksi manusia menjadi sekadar alat pemroses informasi dan menganggap tak ada konsekuensi apa pun ketika proses kognitif tertentu dipindahkan ke perangkat eksternal adalah reduksionisme yang ekstrem
  • Mengingat ulang tahun teman secara langsung dan chatbot yang otomatis mengirim pesan ucapan selamat adalah tindakan yang sama sekali berbeda; yang pertama mencakup proses secara sadar memikirkan orang itu dan mempererat relasi
  • Argumen yang membandingkan “kehilangan ponsel” dengan “kehilangan sebagian otak” adalah kekeliruan yang menyamakan dua situasi yang sama sekali berbeda, baik dari sisi kemungkinan terjadi maupun beratnya konsekuensi
  • Klaim bahwa lingkungan fisik dirancang untuk meminimalkan pikiran juga kurang meyakinkan; saat lingkungan berubah kita mungkin butuh adaptasi sebentar, tetapi tak lama kemudian kita terbiasa dan mulai berpikir sesuai cara yang baru

Apa yang dipikirkan itu penting

  • Terkait apa yang disebut “kekeliruan gumpalan kognisi”, saya setuju bahwa karena jumlah total pikiran yang dapat digunakan manusia tidak terbatas secara sederhana, kita tidak perlu khawatir akan “kehabisan” pikiran
  • Namun, pandangan bahwa “asal tetap berpikir, tidak masalah memikirkan apa” juga merupakan kekeliruan lain
  • Mudah untuk mengira bahwa jika pekerjaan sederhana dan membosankan diserahkan pada komputer, kita bisa fokus pada hal yang lebih kompleks dan menarik, tetapi ada pekerjaan mental yang meski bisa dilakukan mesin, tetap hanya bermakna jika dijalani langsung oleh manusia
  • Misalnya, jika tugas administratif proyek diserahkan pada chatbot, waktu untuk riset memang bisa bertambah, tetapi sebagai gantinya kita bisa kehilangan rasa memiliki terhadap proyek dan landasan untuk membuat penilaian tingkat tinggi
  • Ini bukan argumen bahwa semua pekerjaan tidak boleh diotomatisasi, melainkan bahwa kita harus menyadari setiap otomatisasi selalu datang bersama sesuatu yang didapat dan sesuatu yang hilang
  • Jika dibandingkan dengan “kekeliruan gumpalan kerja”, menyerahkan kerja fisik kepada mesin memang menciptakan bentuk pekerjaan baru, tetapi tidak ada jaminan bahwa pekerjaan itu berguna, memuaskan, dan bermakna bagi individu maupun masyarakat
  • Hal yang sama berlaku untuk berpikir: bahkan proses berpikir yang membosankan dan monoton pun memengaruhi manusia, dan jika suatu tugas kognitif dihapus, pengaruh itu akan tetap tertinggal, entah positif atau negatif

Kesimpulan

  • Menilai bidang mana yang cocok untuk chatbot dalam jangka panjang adalah tugas besar yang tak bisa dihindari
  • Sifat komunikasi pribadi bisa berubah secara mendasar, sistem pendidikan akan dituntut beradaptasi secara radikal, dan kita akan kembali mempertanyakan dengan lebih hati-hati pengalaman seperti apa yang sungguh penting dalam hidup
  • Hal yang benar-benar menarik dari teknologi ini adalah bahwa, lebih dari sekadar efisiensi, ia mengajukan pertanyaan langsung tentang kemanusiaan dan nilai
  • Pilihan tentang bagaimana kita menggunakan chatbot bukan sekadar soal produktivitas atau konsekuensi kognitif, tetapi berlanjut menjadi pertanyaan tentang kehidupan seperti apa dan masyarakat seperti apa yang kita inginkan
  • Karena itu, ada alasan yang jelas untuk melindungi aktivitas manusia tertentu dari otomatisasi mekanis
  • Selain hasil riset dan perdebatan efisiensi, kita juga perlu mempertimbangkan bersama nilai-nilai seperti apa yang akan menjadi dasar komunitas kita

1 komentar

 
GN⁺ 2026-02-02
Komentar Hacker News
  • Istilah "Lump of cognition fallacy" adalah konsep turunan dari istilah klasik dalam ekonomi, "Lump of Labor Fallacy"
    Ini merujuk pada kesalahpahaman bahwa jumlah pekerjaan dalam ekonomi itu tetap
    Padahal, kemajuan teknologi atau otomatisasi meningkatkan produktivitas dan menurunkan biaya, yang pada akhirnya menciptakan permintaan tenaga kerja yang lebih besar
    Klaim bahwa "AI menghilangkan pekerjaan" juga bisa dilihat sebagai salah satu bentuk kekeliruan ini

  • Tulisan ini benar-benar mengesankan. Namun, ungkapan "mengalihdayakan berpikir" terasa seperti kerangka yang agak keliru
    Masalah nyata yang saya alami bukanlah menggunakan AI, melainkan mengotomatiskan bagian yang salah
    Untuk pekerjaan yang inti utamanya adalah berpikir, refleksi, dan penilaian, AI harus dirancang sebagai kolaborator, sementara hal-hal seperti eksekusi atau ingatan sebaiknya diotomatisasi secara berani
    Pada akhirnya, masalahnya bukanlah "mengalihdayakan berpikir", melainkan melewati loop kognitif yang penting
    Saya merangkum tulisan terkait di sini

  • Sejak LLM diperkenalkan ke Gmail, saya merasa tidak nyaman
    Saya percaya bahwa setiap kata dan susunan kalimat mengungkapkan identitas seseorang
    Karena itu, saya merasa komunikasi langsung melalui LLM merusak hubungan antarmanusia

    • Ada juga kasus teman yang berhasil memulihkan hubungan dengan atasan yang menyebalkan berkat ChatGPT
      Saya setuju soal hubungan antarmanusia jika memang didasari niat baik, tetapi jika tidak, LLM justru bisa membantu
    • Jika seseorang mencoba menganalisis ucapan saya secara berlebihan, saya malah merasa lega kalau LLM di Gmail berperan sebagai peredam
    • Situasinya mengingatkan pada meme NPC
  • Saya suka sudut pandang "Reversibility"
    Ada perbedaan antara AI yang membantu satu langkah seperti pemeriksaan tata bahasa atau peringkasan, dan AI yang mengambil alih seluruh proses
    Jika yang saya lakukan hanya memberi persetujuan, saya tidak akan membangun model internal, dan daya penilaian saya juga melemah
    Ini bukan hanya masalah model, tetapi juga masalah UI/desain
    Alat yang menunjukkan perbedaan berdasarkan draf awal tetap menempatkan pengguna di dalam loop, sedangkan alat yang memulai dari halaman kosong melatih pengguna untuk sekadar "menerima"

  • Yang saya khawatirkan adalah, setelah orang menjadi bergantung pada teknologi, data pelatihan atau algoritme bisa bias terhadap agenda tertentu

    • Fenomena seperti ini sebenarnya sudah berulang di media cetak dan penyiaran
      Pada akhirnya, masalahnya adalah sumber informasi berada di bawah kendali pihak lain
      Karena itu, individu seharusnya bisa memiliki LLM dan perangkat kerasnya sendiri
    • Dulu saya khawatir OpenAI akan menjadi monopoli, tetapi sekarang dengan hadirnya berbagai pesaing seperti Mistral, risiko monopoli model sudah berkurang
    • Sudah ada juga contoh yang bias secara terang-terangan seperti Grok
    • Besar kemungkinan suatu hari chatbot akan memberi jawaban bergaya iklan yang merekomendasikan produk tertentu
    • Sebenarnya, struktur seperti ini sudah lama berulang dalam masyarakat kapitalis
  • Setelah melihat tweet Karpathy, saya kembali memikirkan pentingnya kegagalan
    Saat AI melakukan kesalahan, sering kali orang menyalahkan AI atas kegagalan itu dan kehilangan kesempatan untuk belajar
    Saya merasa tulisan ini membahas konteks yang serupa

  • Saya juga pernah menyerahkan sebagian proyek kepada AI, lalu belakangan sadar bahwa AI tidak benar-benar memahami proyek saya

    • Tetapi ada juga orang yang, dengan nada setengah bercanda, mengatakan "itulah arah yang benar", bahwa LLM seharusnya menangani semuanya
      Kalau macet, gunakan LLM lain sebagai debugger, dan kalau itu macet juga, pakai LLM lain lagi — seperti struktur menara kura-kura yang tak ada habisnya (/s)
  • Jika otak manusia dipakai sebagai analogi, AI tampaknya akan menjadi neokorteks (neocortex) baru kita
    Seperti sistem limbik yang tidak "mengalihdayakan" pemikiran ke neokorteks, AI juga tidak akan menggantikan pemikiran manusia, melainkan menjadi lapisan yang memberi nasihat
    Sebagaimana neokorteks memperluas kemampuan sosial manusia, AI juga akan membuat kita bisa berkomunikasi dengan jutaan orang
    Hanya saja, hubungan itu akan berbentuk sangat berbeda dari "percakapan pribadi" seperti sekarang

  • Daftar "hal-hal yang tidak seharusnya memakai AI" terasa agak naif
    Seperti artikel The Atlantic tentang mahasiswa studi film yang bahkan tidak bisa menonton film sampai selesai, orang-orang tidak bertindak secara bertanggung jawab meski tahu risikonya

    • Rasanya bahkan setengah dari mahasiswa pun tidak memahami risiko jangka panjang dari SNS atau AI
    • Ada yang berkata, "pelajaran dari anekdot mahasiswa film itu adalah, orang-orang menyukai gagasan tentang 'belajar film', tetapi tidak suka benar-benar belajar"
    • Orang lain menambahkan, "kalau 100 film, esai, dan ujian menumpuk, siapa pun akan jenuh"
    • Ada juga tanggapan, "percaya bahwa orang akan menggunakan AI secara bertanggung jawab justru kekhawatiran terbesar"
    • Muncul pula analogi, "seperti kita meninggalkan menunggang kuda dan memilih mobil, kita sedang kehilangan sesuatu"
  • Kerangka "Lump of cognition" bukan soal jumlah pikiran, melainkan soal jenis pemikiran apa yang kita hentikan
    Daya penilaian dan intuisi tumbuh dari pekerjaan yang berulang dan membosankan, dan ada harga yang harus dibayar jika itu dialihdayakan
    Rendahnya biaya memproduksi kata-kata tidak berarti kedalaman berpikir ikut bertambah

    • Saya merasa waktu saat bersusah payah memecahkan masalah sulit sendiri pada akhirnya adalah hakikat pembelajaran
    • Kenyataan bahwa kata-kata murah terlihat cukup memuaskan bagi banyak orang memberi wawasan yang muram
    • Saya pikir LLM sebaiknya dipakai setidaknya hanya untuk memperbaiki typo dan tata bahasa sebagai alur kerja yang baik