18 poin oleh GN⁺ 2025-07-08 | 4 komentar | Bagikan ke WhatsApp
  • Tulisan yang mengkritik sikap mengantropomorfisasi LLM seperti manusia. Pada akhirnya, LLM hanyalah sekumpulan perkalian matriks dan fungsi nonlinier
  • Urutan bahasa yang dihasilkan LLM adalah jalur fungsional yang kompleks, tanpa campur tangan "niat" atau "etika" seperti pada manusia
  • Isu keamanan (alignment) pada LLM pada intinya adalah mengukur dan membatasi secara matematis probabilitas keluaran yang tidak diinginkan
  • Menerapkan konsep berpusat pada manusia seperti etika atau kesadaran pada LLM membuat diskusi menjadi rancu, dan justru mengaburkan definisi masalah serta solusinya yang nyata
  • Kesadaran manusia dan LLM pada dasarnya berbeda, dan yang penting adalah pemahaman teknis serta respons terhadap perubahan sosial

Perlunya sudut pandang yang tidak melihat LLM seperti manusia

Kesadaran masalah dalam diskusi tentang LLM dan antropomorfisasi (menganggapnya berpikir seperti manusia)

  • Dalam diskusi terkait AI dan LLM (large language model), ketika alignment atau keamanan AI dibahas, banyak ahli merasa bingung dengan kecenderungan memberi atribut manusiawi pada LLM (seperti kesadaran atau niat)
  • Pada dasarnya, LLM dapat dipandang sebagai kombinasi MatMul (perkalian matriks) dan fungsi nonlinier

Hakikat struktural LLM

  • LLM adalah fungsi yang memetakan kata-kata individual (token input) ke ruang vektor, lalu menghitung distribusi probabilitas token berikutnya berdasarkan jalur sebelumnya, dan menghasilkan keluaran secara berurutan
  • Proses ini mirip dengan "permainan Snake di ruang berdimensi tinggi", dan jalur generasinya serumit strange attractor dalam sistem dinamis
  • LLM dilatih dari sejumlah besar teks yang ditulis manusia + korpus bidang khusus + data yang dibuat otomatis dan dapat diverifikasi, sehingga memperoleh pemetaan yang meniru struktur bahasa manusia

Jalur yang harus dihindari (urutan bahasa), alignment, dan isu keamanan

  • Beberapa urutan bahasa tidak pantas secara sosial atau etis, sehingga kita ingin urutan tersebut tidak dihasilkan
  • Namun karena sulit memberikan definisi matematis yang ketat tentang jalur mana yang tidak diinginkan, distribusi hanya bisa disesuaikan (nudge) lewat contoh dan kontra-contoh
  • Yang dimaksud dengan "alignment" dan "keamanan" pada LLM adalah persoalan mengukur secara matematis probabilitas dihasilkannya urutan yang tidak diinginkan dan menetapkan batasnya
  • Namun pada praktiknya, kriteria urutan "yang tidak diinginkan" tidak bisa didefinisikan secara jelas secara matematis, dan hanya mungkin diberikan lewat contoh, sehingga ada batasan yang nyata
  • Pada LLM tertentu, probabilitas munculnya suatu urutan memang bisa dihitung, tetapi kita tidak bisa begitu saja menjumlahkan atau mengintegralkan seluruh probabilitasnya lalu menyimpulkan bahwa "model ini menghasilkan urutan yang tidak diinginkan sekali setiap N kali"

Kegunaan nyata LLM

  • LLM memungkinkan banyak masalah pemrosesan bahasa alami (NLP) diselesaikan secara algoritmis
  • Misalnya: merangkum dokumen dalam bahasa Inggris yang natural, menata data dalam struktur JSON, membuat dongeng dan gambar kreatif, yaitu hal-hal yang 5~6 tahun lalu tidak mungkin dilakukan secara natural
  • Dengan kurva peningkatan yang sangat cepat, diperkirakan ke depan LLM akan menyelesaikan lebih banyak masalah yang sebelumnya mustahil

Batas sudut pandang yang melihatnya seperti manusia

  • Penulis menolak sudut pandang yang memberi LLM "kesadaran", "etika", "nilai", atau "tujuan"
  • Pada akhirnya, LLM hanyalah "persamaan rekursif" yang hanya menghasilkan keluaran jika diberi masukan
  • Diskusi yang mengatakan AI akan "tersadarkan" atau "memiliki kesadaran tujuan" adalah kesalahan pada tingkat yang sama dengan mengklaim simulasi cuaca memiliki emosi
  • Dalam diskusi AI, istilah berpusat pada manusia seperti "tindakan", "batasan etis", atau "pengejaran tujuan" mengaburkan hakikat persoalan
  • Ini adalah kesalahan kognitif yang mirip dengan kecenderungan manusia di masa lalu mengantropomorfisasi fenomena alam sebagai "murka dewa" atau "roh jahat"

Arah yang tepat untuk diskusi alignment

  • LLM hanyalah fungsi pembangkit urutan, dan probabilitas keluarannya dapat diubah dengan menyesuaikan prefiks input
  • Untuk semua urutan keluaran yang tidak diinginkan, mencari prefiks yang memaksimalkan probabilitasnya juga merupakan pendekatan matematis
  • Pendekatan yang jelas dan berbasis rumus seperti ini justru memperjelas definisi masalah dan solusinya

Mengapa antropomorfisasi sering muncul di bidang AI

  • Banyak pemimpin industri AI cenderung masuk ke bidang ini dengan tujuan hidup untuk mewujudkan AGI
  • Karena itu, dalam diskusi teknis mudah terselip keyakinan tentang kecerdasan setara manusia atau penciptaan entitas bak dewa
  • Penulis mengakui bahwa ajakan untuk keluar dari sudut pandang antropomorfis sulit diterima

Perbedaan mendasar antara kesadaran manusia dan LLM

  • Manusia adalah keberadaan yang secara hakiki berlapis dan kompleks, berevolusi melalui proses yang belum sepenuhnya dipahami seperti ratusan juta tahun seleksi alam, struktur saraf yang kompleks, hormon, input sensorik berdimensi tinggi, dan pengaturan energi
  • Mustahil menghitung probabilitas manusia menghasilkan urutan tertentu
  • LLM sama sekali berbeda dari cara berpikir manusia, dan bahkan "probabilitas menghasilkan urutan ini" pun sulit didefinisikan
  • Menerapkan konsep manusia seperti "etika" atau "naluri bertahan hidup" pada LLM sama janggalnya dengan membahas emosi pada program simulasi analisis numerik

Masalah yang sesungguhnya dan arah perubahan

  • Kelas fungsi yang disediakan LLM modern sangat berguna, dan meskipun sama sekali tidak mendekati AGI, tetap dapat memicu perubahan sosial yang besar
  • Meskipun LLM tidak mencapai AGI, teknologi saat ini saja sudah bisa membawa perubahan besar pada dunia
    • Transformasi menyeluruh masyarakat seperti elektrifikasi (Electrification) dimungkinkan
  • Dalam perubahan cepat selama beberapa dekade ke depan, perlu fokus pada persoalan nyata seperti keamanan dan pemanfaatan

4 komentar

 
mirea0 2025-07-08

Daripada soal melakukan antropomorfisasi atau tidak..
Saya rasa titik ketika keamanan bisa dijamin sudah terlewati sejak ia sudah bisa belajar dan bernalar sendiri (pada titik ini, percaya bahwa manusia sepertimu masih bisa mengendalikan semuanya adalah kesombongan)
Kalau dilihat dari sudut pandang pembelajaran, bukankah justru membuatnya berpikir seperti manusia dan belajar dari sudut pandang manusia adalah cara yang setidaknya bisa sedikit meningkatkan keamanan!?

 
cgl00 2025-07-11

Menurut saya, secara struktur LLM rasanya mustahil menjamin keamanan secara sempurna. Menurut saya, ketidakstabilan LLM memang tidak bisa dihindari, dan yang penting adalah bagaimana memberikan otoritas atas tindakan fisik seperti pada agen atau kendaraan otonom.

 
kimjoin2 2025-07-08

Rasanya seperti membandingkan mobil dengan maraton..

 
GN⁺ 2025-07-08
Opini Hacker News
  • Saya cukup paham secara teknis bagaimana LLM bekerja, tetapi saya tidak merasa pengibaratan yang agak manusiawi itu sama sekali tidak berguna
    Istilah seperti “generator yang secara probabilistik menghasilkan kata berikutnya” terasa sebagai abstraksi tingkat rendah yang kurang bermakna saat LLM menjawab pertanyaan pemodelan dunia yang kompleks atau membuat cerita kreatif
    Ini seperti membahas 0 dan 1, tegangan transistor, dan sebagainya saat berbicara tentang UI event API; secara teknis memang benar, tetapi tidak berguna untuk memahami sistem tingkat tinggi
    Untuk membicarakan fenomena tingkat lebih tinggi, kita memerlukan abstraksi tingkat lebih tinggi, tetapi kita belum benar-benar tahu apa yang terjadi di level internal
    LLM sampai batas tertentu meniru manusia (setidaknya dari bentuk keluarannya), jadi pengibaratan manusiawi adalah abstraksi yang paling berguna, dan menurut saya itu sebabnya orang secara alami berbicara seperti itu saat membahas kemungkinan LLM

    • Anda mengatakan bahwa untuk memahami fenomena tingkat tinggi pada LLM kita memerlukan abstraksi tingkat lebih tinggi, tetapi saya rasa kita sebenarnya sudah tahu bagaimana bagian dalamnya bekerja
      Desain jaringan yang efisien dan peningkatan performa sangat bergantung pada pemahaman tentang cara kerja internalnya (dimensi jaringan, ekstraksi fitur, attention, attention head, caching, fitur berdimensi tinggi, pencegahan overfitting, dan sebagainya)
      Pengibaratan manusiawi hanya diperlukan ketika memakai kosakata terbatas dalam buku sains populer umum, dan menurut saya itu bukan kebutuhan bagi praktisi

    • Sebaliknya, menurut saya justru pengibaratan manusiawi adalah penyebab utama narasi tentang LLM menjadi terdistorsi
      Orang-orang mengatakan LLM berpikir dan bernalar, padahal sebenarnya tidak melakukan perilaku seperti itu
      Dan persepsi ini secara aktif didorong oleh perusahaan yang menjual LLM
      Akibatnya, menurut saya ini menimbulkan efek samping berupa kaburnya diskusi tentang kegunaan dan penerapan LLM

    • Saya teringat bahwa dalam The Selfish Gene, Dawkins berbicara tentang “sudut pandang intensional” terhadap gen
      Menggambarkan gen seolah-olah punya niat memang tidak tepat, tetapi alih-alih setiap kali menulis penjelasan rinci seperti “individu yang memiliki gen ini akan berperilaku seperti ini”, menyebut gen sebagai agen yang punya tujuan menjadi singkatan yang mudah dipahami dan praktis
      Jika kita sudah memahami abstraksi tingkat rendah, saya rasa kita tidak perlu tetap bertahan di level rendah itu saat membicarakan level yang lebih tinggi

    • Setelah cukup banyak memakai model bahasa, saya merasa bagian yang paling berbahaya dari pengibaratan manusiawi adalah UI percakapan
      Jika hanya fokus pada satu pasangan tanya-jawab, atau meminimalkan dan mengedit riwayat percakapan semaksimal mungkin, banyak masalah dalam penggunaan LLM berkurang drastis
      Setelah saling bertukar banyak pesan lalu meninjau percakapan atau meminta model memperbaiki ‘halusinasi’, saya mengalami gejala di mana informasi yang salah justru terus disebut ulang dan memperkuat arah percakapan yang keliru
      Hal yang sama juga muncul dalam coding, dan sangat jelas terlihat bagaimana kode yang salah terus mencemari percakapan

    • Saya seperti GP dan OP, tidak bisa bersemangat karena saya tidak dapat membayangkan keadaan kerja internal LLM di kepala saya
      Kadang saya iri pada orang-orang seperti itu
      Mungkin karena saya sering gagal dalam ujian matematika
      Sebagai gantinya, saya berusaha membayangkannya seabsak, sevisual, dan sefilosofis mungkin
      Tulisan saya terkait hal ini bisa dilihat di blog saya, dan jika ada masukan silakan hubungi lewat email

  • Saya rasa melihat LLM hanya sebagai generator sekuens, lalu menganggap perilaku salah sebagai sekuens yang salah, adalah penyederhanaan berlebihan
    Dalam LLM ada hidden state yang tidak langsung terlihat dari token, dan LLM bisa saja mengeluarkan output yang bertentangan dengan keadaan internalnya demi hasil jangka lebih panjang
    Jika fenomena ini disebut sebagai “berbohong”, saya bertanya-tanya apakah itu terlalu mengibaratkan secara manusiawi
    Kalau begitu, kita memerlukan istilah baru yang bisa menjelaskan proses internal ketika LLM meniru “tindakan” untuk meminimalkan prediction loss
    Pemikiran analogis memang selalu perlu hati-hati, tetapi itu sendiri tidak sepenuhnya tidak perlu
    Namun istilah baru pasti akan terlalu sukar dipahami dan sulit menyebar ke publik, jadi kenyataannya kita akhirnya condong memakai istilah manusiawi
    Tentu itu bisa menimbulkan salah paham karena membuat LLM terlihat seperti “manusia yang penuh cacat”, tetapi setidaknya jargon yang tidak perlu jadi berkurang

    • Saya sudah lama bekerja dengan model yang memiliki hidden state, jadi saya merasa sifat seperti ini adalah karakteristik yang sangat klasik dalam model statistik
      Bahkan buku ajar LLM yang banyak dipakai pun menjelaskannya sebagai latent variable model
      LLM hanyalah versi latent variable model dengan skala dan kompleksitas yang jauh lebih besar
      Sebenarnya menjelaskan model dengan cara yang tidak manusiawi seperti ini justru lebih mudah bagi saya
      Latent variable model memang sejak dulu sering dianggap misterius dan penuh teka-teki
      Sisi misterius inilah yang sebagian ikut melahirkan budaya pengibaratan manusiawi terhadap LLM, tetapi sampai tingkat tertentu itu juga merupakan abstraksi yang perlu untuk komunikasi yang efisien dan pemodelan sistem kompleks
      Namun saya juga berpikir hal ini memicu ekspektasi berlebihan, wacana seolah-olah ‘ada jiwa di dalam mesin’, dan pembesaran klaim kegunaan

    • Saya rasa LLM diibaratkan secara manusiawi karena vendor perusahaan besar menekankan istilah-istilah yang memanusiakan dari sisi pemasaran
      Orang jadi antusias pada teknologinya, lalu ikut memakai istilah yang dipakai vendor
      Sampai titik ini rasanya sudah seperti proses yang terpenuhi dengan sendirinya
      Mirip fenomena meme perdebatan pelafalan GIF

    • Saya rasa hidden state pada dasarnya hanyalah mekanisme internal yang dipakai model untuk memperkirakan probabilitas gabungan token dengan lebih baik
      Logika seperti ini juga pernah gagal dalam upaya para positivis logis awal abad ke-20
      Ada asumsi bahwa jika kita bisa memprediksi probabilitas gabungan bahasa dengan sangat baik, maka kita bisa memperoleh “pengetahuan” yang padat
      Tetapi secara filosofis ada banyak dasar bahwa bahasa hanyalah ekspresi yang tidak sempurna dari pengetahuan
      Ada cukup banyak bukti bahwa pikiran manusia jauh lebih kompleks daripada sekadar mempelajari dan mengeluarkan pola simbol
      Skeptisis seperti Hume memang pernah menyampaikan argumen seperti ini, tetapi menurut saya diskusi epistemologi sesudahnya memberikan penjelasan yang lebih baik

    • Saya penulis postingan aslinya
      Saya penasaran apa yang dimaksud dengan “hidden state”
      Di kebanyakan LLM, menurut saya konteks itu sendiri adalah state, dan tidak ada state “tersembunyi” yang terpisah
      Kalau saya melewatkan sesuatu, mohon dijelaskan

    • Dalam LLM, struktur dasarnya adalah mengubah sekuens token dari embedding N^L ke R^{LxD}, melewati attention menjadi R^{LxD}, lalu memproyeksikan vocabulary secara terpisah ke R^{LxV} pada akhirnya, yaitu menghasilkan distribusi probabilitas untuk tiap token
      Memang ada berbagai pendekatan Multi Head di dalam attention, tetapi semuanya selalu menangani representasi yang melekat pada token
      Karena itu saya berpendapat tidak ada hidden state yang tidak bergantung pada token tertentu
      Ini berbeda dengan model seperti LSTM yang punya hidden state yang diperbarui secara jelas
      Menurut saya, penjelasan berdasarkan prinsip menghitung probabilitas dari kata-kata sebelumnya sudah cukup untuk memahami sebagian besar hal
      Saya tidak merasa pengibaratan manusiawi itu perlu

  • Argumen inti penulis mirip dengan pandangan Searle, yaitu bahwa sistem berbasis komputasi, fungsi, atau aturan sintaksis tidak bisa mereproduksi pikiran yang sejati
    Banyak orang akan setuju atau tidak setuju, tetapi pada akhirnya jawabannya ditentukan oleh premis apa yang dipilih, terutama premis tentang kesadaran
    Penulis berpikir lebih produktif untuk fokus pada sistem teknis konkret daripada pengibaratan manusiawi, tetapi ia menyatakan setuju hanya sampai di titik itu
    Terlepas dari itu, ia juga mengakui bahwa meskipun sistem ini adalah sistem probabilistik yang mengikuti aturan, tetap muncul sifat yang entah bagaimana emergent, tak terduga, dan mind-like
    Orang dengan latar belakang ML dan matematika tidak menganggap sistem seperti ini memiliki sifat manusia seperti moral, emosi, atau kepribadian, tetapi bagaimanapun bagi kebanyakan orang sulit mendekatinya sebagai struktur matematis dan dari luar ia terasa “cukup meyakinkan” seperti manusia
    Karena itu, dari sudut pandang praktis, memulai pertanyaan dari sifat-sifat manusiawi pun cukup bermakna
    Pada akhirnya saya rasa kita memerlukan kedua pendekatan: sudut pandang sistem teknis yang sangat ekstrem, dan sudut pandang kualitatif-subjektif yang didasarkan pada pengalaman mental pengguna

    • Saya rasa konsep “sesuatu yang emergent dan mind-like” terasa lebih alami bagi orang yang tidak begitu memahami prinsip kerja sistem tersebut
      Seperti hukum Clarke bahwa “teknologi yang cukup maju tak bisa dibedakan dari sihir”, batas itu berbeda bagi tiap orang tergantung seberapa dalam pemahamannya atas teknologi
      Pada publik yang literasi teknologinya rendah, bahkan muncul fenomena Godbot yang memuja AI
      Artikel terkait: Spectator - bahaya AI Godbots, paper arXiv, Guardian - peramal AI di Thailand

    • Terima kasih sudah menghadirkan pandangan yang seimbang dengan sangat baik dalam diskusi ini
      Saya heran karena di HN ada juga orang yang memperlakukan LLM terlalu emosional, atau bersikeras bahwa LLM sama sekali tidak menarik dan tidak bernilai
      Saya juga tidak paham sikap yang sengaja memilih penolakan tanpa dasar hanya karena bereaksi terhadap pemasaran yang berlebihan

    • Rasa bahwa ia emergent dan mind-like pada akhirnya muncul karena sistem ini meniru pola komunikasi manusia lebih baik daripada sistem mana pun sepanjang sejarah
      Kemampuan ini memang sangat mengesankan dan punya banyak kegunaan nyata yang dapat meningkatkan kualitas hidup, tetapi “kecerdasan” itu pada akhirnya hanyalah ilusi
      Semua orang di industri ingin sengaja memperkuat ilusi ini, dan alasannya pada akhirnya tetap nilai finansial

    • Saya berpendapat sama sekali tidak perlu begitu
      Tidak ada alasan untuk memperbesar sudut pandang yang keliru dan bisa berdampak serius pada banyak topik lain
      LLM hanya mencerminkan sebagian proses berpikir manusia (dan itu pun dengan buruk)
      Jika kita mencoba memberi makna lebih pada fenomena ini, itu seperti salah mengira orang di cermin benar-benar hidup
      Cermin memantulkan manusia bukan karena hakikat cermin itu sendiri, tetapi karena ada manusia di depannya
      Begitu LLM tidak lagi menerima sisa-sisa pikiran manusia (data) sebagai input, ia tidak akan lagi mencerminkan apa pun yang mirip manusia

  • Saya merasa penulis punya kecenderungan melabeli semua pembicaraan sebagai “humanisasi”
    Ia tampak terlalu terpaku pada istilah “goal”, sampai-sampai hanya memakai kata “goal” saja dianggap sebagai humanisasi
    Misalnya, BFS yang mengevaluasi semua skor papan catur dan ketika menemukan checkmate mencetak seluruh decision tree juga punya “goal”
    Dalam membayangkan goal pada LLM atau AGI, penggunaan istilah teknis “goal” menurut saya tidak ada kaitannya dengan humanisasi

    • Saya penulis postingan aslinya
      Tidak ada masalah sama sekali menggunakan "goal" dalam konteks algoritme RL
      Saya harap Anda memahami bahwa dalam tulisan saya, yang saya tolak hanya penggunaan "goal" dalam konteks LLM
  • Saya tidak bisa setuju sejak orang mulai memproyeksikan konsep seperti “consciousness”, “ethics”, “values”, dan “morals” ke fungsi terlatih ini
    Pada akhirnya, yang kita hadapi hanyalah persamaan rekursif raksasa, dan jika kita tidak menjalankannya, ia tidak menghasilkan kata apa pun
    Dengan logika seperti itu, bukankah kita juga harus mulai memikirkan ulang pengibaratan manusia terhadap manusia itu sendiri?

  • Saya tidak setuju dengan klaim bahwa “aneh jika pembicaraan soal memperlakukan LLM seperti manusia terus berlanjut padahal ia hanya fungsi pembangkit sekuens”
    Manusia juga pada dasarnya tidak berbeda, dalam arti bergerak mengikuti daftar fungsi tertentu
    LLM hanyalah sistem aproksimasi fungsi yang menjadi sangat besar, sementara alam selama ratusan juta tahun terus mengubah jenis-jenis fungsi melalui evolusi, di mana hanya sebagian yang bertahan dari persaingan hidup
    Mungkin ada orang yang percaya bahwa ada sesuatu yang istimewa pada manusia di luar hukum matematika, tetapi itu tidak melampaui posisi mistis (atau keyakinan supranatural)
    Jika tidak berpikir seperti itu, pada akhirnya pengalaman manusia juga dapat dijelaskan sebagai fungsi dan aproksimasi fungsi
    Terkait: Wiki Universal Approximation Theorem

    • Klaim “apakah Anda percaya ada sesuatu pada manusia yang melampaui hukum matematika” itu sendiri bersifat kontroversial
      Jelas ada wilayah pengalaman manusia atau hal-hal yang bisa diungkapkan dalam bahasa yang melampaui cakupan penjelasan fisika
      Misalnya, seseorang yang buta warna hitam-putih dan belum pernah mengalami warna merah tidak bisa memiliki pengalaman subjektif tentang merah melalui sistem penjelasan apa pun
      Saya rasa ada fenomena yang dirujuk bahasa manusia yang masih berada di luar penjelasan fisika

    • Penulis tampaknya memegang posisi bahwa ada “sesuatu” dalam kesadaran manusia yang tidak bisa dijelaskan sebagai fungsi
      Dari pengalaman, orang memang punya gagasan semacam ini—entah dari agama, premis filosofis, dan sebagainya—dan menyuruh mereka mengesampingkan unsur mental itu biasanya tidak banyak membantu
      Lebih praktis menerima premis itu lalu melanjutkan diskusi
      Sambil mengakui bahwa LLM, seperti “Chinese Room”, hanyalah fungsi yang menerjemahkan tanpa memahami makna, ia tetap terus menampilkan perilaku yang tampak manusiawi
      Jadi meskipun pengibaratan manusiawi salah secara teknis, untuk memprediksi perilaku sistem dan memakainya secara efektif, menurut saya secara praktis justru lebih baik memakai pengibaratan itu
      Sebaliknya, dalam diskusi tentang manusia, kita bisa mengesampingkan perbedaan dari fungsi
      Kita bisa berkata, “manusia sangat berbeda dari fungsi... kita tidak bisa menghitung probabilitas manusia menghasilkan sekuens ini”, tetapi misalnya jika Anda melempar frasa budaya pop tertentu, kita bisa memprediksi bahwa sebagian besar orang Amerika dari kelompok usia tertentu kemungkinan besar akan melanjutkannya; jadi untuk kondisi tertentu, probabilitas pada manusia pun bisa dihitung

    • Saya rasa paling jauh kita hanya bisa mengatakan bahwa “manusia paling baik dimodelkan untuk penalaran atau proses berpikir analitis dengan linear algebra”
      Pada akhirnya, harapan bahwa LLM akan menjadi sesuatu yang lebih dari sekadar “model” adalah harapan bernuansa keyakinan yang ditopang berbagai kepentingan industri, nafkah, dan karier
      Meski begitu, tidak ada dasar nyata yang menjelaskan mengapa model linear algebra sepenuhnya dapat memodelkan “kehidupan” atau “salah satu aspek kehidupan” secara utuh
      Jika kasus ala Gödel seperti “kucing zombie” pun bisa muncul, rasanya tidak ada alasan untuk memandang model probabilitas dasarnya sebagai sesuatu yang transenden

    • Menanggapi penyebutan “Universal Approximation Theorem”, saya menafsirkannya secara lebih luas sebagai bahwa lookup table yang semakin baik pun bisa dipakai untuk aproksimasi fungsi

  • Dalam situasi tertentu, menurut saya sangat penting untuk mengingat dengan jelas bahwa LLM adalah pembangkit kata berbasis probabilitas
    Tetapi dalam penggunaan sehari-hari, justru memperlakukannya secara manusiawi jauh lebih efektif dalam praktik
    Jika diperlakukan secara manusiawi, itu berfungsi sebagai abstraksi praktis yang memudahkan kita mengarahkan model ke jawaban yang dibutuhkan
    Ini memang bukan analogi yang sempurna, tetapi misalnya kasus ketika orang “mengancam bahwa seseorang akan mati jika LLM tidak mengeluarkan format JSON” jelas bukan perilaku yang akan terpikir jika kita mendekatinya hanya sebagai gradient descent biasa

  • Orang memang cenderung memberi sifat manusia pada segala sesuatu di sekitarnya
    Mereka berbicara pada benda mati (kapal, mobil, dan sebagainya), hewan, bahkan tanaman; itu dilakukan secara naluriah
    Kebanyakan orang juga paham bahwa mobil mereka tidak mencintai mereka, tetapi dalam LLM percakapan tidak sedikit orang yang benar-benar percaya ada kesadaran
    Tidak seperti otak manusia, LLM tidak “belajar” atau “beradaptasi” (setidaknya untuk saat ini); ia hanya dilatih lalu menjadi entitas read-only
    Meski begitu, LLM memang sengaja dibuat untuk meniru komunikasi manusia
    Karena itu, proyeksi dan humanisasi tidak bisa dihindari
    Mungkin ini belum AGI, tetapi jelas terinspirasi dari cara manusia belajar, dan hasil sejauh ini saja sudah menarik
    Dalam jangka pendek, LLM telah menjadi alat praktis yang jauh lebih mudah dipakai sebagai antarmuka percakapan, dan memang dirancang dengan cara komunikasi yang mudah digunakan manusia
    Berkat itu, siapa pun bisa langsung memakainya secara efektif tanpa pelatihan khusus

    • Saya tidak setuju dengan pernyataan “orang memberi sifat manusia pada sesuatu”, itu hanya kekacauan istilah
      Menggunakan ungkapan personifikasi untuk benda mati berbeda dengan anthropomorphism, yaitu memproyeksikan kemanusiaan dan kesadaran yang nyata
      Hampir tidak ada orang yang sungguh menganggap mobil hidup
      Sebaliknya, banyak orang percaya bahwa LLM punya kesadaran
      Penjelasan terkait: anthropomorphism vs personification

    • Pernyataan “LLM tidak sadar karena tidak belajar atau beradaptasi seperti otak” bukan syarat cukup maupun syarat perlu
      Untuk memiliki kesadaran, belajar tidak diperlukan, tetapi mungkin diperlukan kesadaran akan aliran waktu dan memori jangka pendek
      Pasien demensia berat pun hampir tidak punya kemampuan belajar, tetapi masih memiliki kesadaran subjektif bahwa mereka “ada di sini saat ini”
      Artinya, kesadaran tetap mungkin ada hanya dengan sedikit sekali memori jangka pendek
      Sebaliknya, belajar saja juga tidak otomatis melahirkan kesadaran
      Ada banyak perangkat lunak yang belajar secara real-time, tetapi tidak memiliki subjektivitas apa pun

  • Pertanyaan saya adalah, mungkinkah otak manusia juga bekerja seperti LLM
    Otak juga membentuk struktur khusus melalui perubahan evolusioner, mutasi, dan algoritme reward evolusioner
    Struktur itu pada akhirnya memaksimalkan kelangsungan hidup dan reproduksi melalui prediksi/tindakan, dan subgoal tambahan seperti moral, nilai, dan kesadaran berevolusi sebagai cabang samping yang menjadi kompleks
    Pada akhirnya, saya berpikir bahwa jika daya komputasi cukup, seluruh struktur ini (beserta dunia dan aliran waktu) mungkin dapat dinyatakan sebagai fungsi deterministik yang bisa ditransformasikan
    Jika kita memikirkan bahwa kemunculan kehidupan sendiri sudah merupakan kenyataan yang muncul dari probabilitas yang tampaknya mustahil, maka semua “keajaiban” saat ini pun pada akhirnya bisa direduksi menjadi sistem matematis

    • Untuk pertanyaan “apakah otak manusia bisa sama dengan LLM”, saya ingin bertanya apakah Anda melupakan semua isi sebelumnya setelah setiap percakapan selesai
      Jika saat berbicara dengan orang sekitar Anda hanya bisa memahami konteks bila mereka mengulang semua yang mereka katakan dengan tepat setiap kali, saya akan menyarankan konsultasi profesional secepatnya
      Anda mungkin perlu menonton film tentang amnesia, Memento (2000), jadi silakan jadikan itu referensi

    • Yang penting, kita tidak boleh mengatribusikan emosi, moral, atau motivasi pada mesin
      Mesin sama sekali tidak punya hal-hal itu

    • Saya rasa ada cukup banyak kemiripan dengan otak manusia
      LLM adalah hasil terbaru dari riset pemodelan komputasional otak manusia yang telah berlangsung setidaknya lebih dari 80 tahun

    • Kekuatan terbesar LLM adalah bahwa kegagalannya tidak menimbulkan kerugian apa pun
      Kita hanya perlu mengubah prompt, mengulang, atau melatih ulang
      Manusia bisa mempertaruhkan nyawa hanya karena satu kesalahan
      Kesalahan LLM tidak membawa konsekuensi serius; cukup ubah permintaannya

  • Ada pendapat bahwa “begitu orang mulai memberikan kesadaran, etika, nilai, dan moral pada LLM, kebingungan mulai muncul”
    Dalam perdebatan seperti ini, diskusi hanya akan produktif jika ditambah contoh konkret, tetapi di dunia nyata percakapan biasanya hanya saling meleset
    Misalnya ketika orang berkata “model menginginkan X, tetapi karena tahu Y salah, ia memilih Z”, satu pihak menafsirkannya sebagai pemberian kesadaran/nilai pada model, sementara pihak lain menganggapnya sekadar cara metaforis untuk menggambarkan perilaku eksternal (seperti “air ingin mengalir ke bawah”)
    Pada akhirnya permainan kata seperti ini berjalan paralel sebagai “saya ingin menjelaskannya secara filosofis” vs “saya hanya ingin bicara tentang kapal selam”
    Strukturnya memang sulit mengarah pada diskusi yang produktif