- Tulisan yang mengkritik sikap mengantropomorfisasi LLM seperti manusia. Pada akhirnya, LLM hanyalah sekumpulan perkalian matriks dan fungsi nonlinier
- Urutan bahasa yang dihasilkan LLM adalah jalur fungsional yang kompleks, tanpa campur tangan "niat" atau "etika" seperti pada manusia
- Isu keamanan (alignment) pada LLM pada intinya adalah mengukur dan membatasi secara matematis probabilitas keluaran yang tidak diinginkan
- Menerapkan konsep berpusat pada manusia seperti etika atau kesadaran pada LLM membuat diskusi menjadi rancu, dan justru mengaburkan definisi masalah serta solusinya yang nyata
- Kesadaran manusia dan LLM pada dasarnya berbeda, dan yang penting adalah pemahaman teknis serta respons terhadap perubahan sosial
Perlunya sudut pandang yang tidak melihat LLM seperti manusia
Kesadaran masalah dalam diskusi tentang LLM dan antropomorfisasi (menganggapnya berpikir seperti manusia)
- Dalam diskusi terkait AI dan LLM (large language model), ketika alignment atau keamanan AI dibahas, banyak ahli merasa bingung dengan kecenderungan memberi atribut manusiawi pada LLM (seperti kesadaran atau niat)
- Pada dasarnya, LLM dapat dipandang sebagai kombinasi MatMul (perkalian matriks) dan fungsi nonlinier
Hakikat struktural LLM
- LLM adalah fungsi yang memetakan kata-kata individual (token input) ke ruang vektor, lalu menghitung distribusi probabilitas token berikutnya berdasarkan jalur sebelumnya, dan menghasilkan keluaran secara berurutan
- Proses ini mirip dengan "permainan Snake di ruang berdimensi tinggi", dan jalur generasinya serumit strange attractor dalam sistem dinamis
- LLM dilatih dari sejumlah besar teks yang ditulis manusia + korpus bidang khusus + data yang dibuat otomatis dan dapat diverifikasi, sehingga memperoleh pemetaan yang meniru struktur bahasa manusia
Jalur yang harus dihindari (urutan bahasa), alignment, dan isu keamanan
- Beberapa urutan bahasa tidak pantas secara sosial atau etis, sehingga kita ingin urutan tersebut tidak dihasilkan
- Namun karena sulit memberikan definisi matematis yang ketat tentang jalur mana yang tidak diinginkan, distribusi hanya bisa disesuaikan (nudge) lewat contoh dan kontra-contoh
- Yang dimaksud dengan "alignment" dan "keamanan" pada LLM adalah persoalan mengukur secara matematis probabilitas dihasilkannya urutan yang tidak diinginkan dan menetapkan batasnya
- Namun pada praktiknya, kriteria urutan "yang tidak diinginkan" tidak bisa didefinisikan secara jelas secara matematis, dan hanya mungkin diberikan lewat contoh, sehingga ada batasan yang nyata
- Pada LLM tertentu, probabilitas munculnya suatu urutan memang bisa dihitung, tetapi kita tidak bisa begitu saja menjumlahkan atau mengintegralkan seluruh probabilitasnya lalu menyimpulkan bahwa "model ini menghasilkan urutan yang tidak diinginkan sekali setiap N kali"
Kegunaan nyata LLM
- LLM memungkinkan banyak masalah pemrosesan bahasa alami (NLP) diselesaikan secara algoritmis
- Misalnya: merangkum dokumen dalam bahasa Inggris yang natural, menata data dalam struktur JSON, membuat dongeng dan gambar kreatif, yaitu hal-hal yang 5~6 tahun lalu tidak mungkin dilakukan secara natural
- Dengan kurva peningkatan yang sangat cepat, diperkirakan ke depan LLM akan menyelesaikan lebih banyak masalah yang sebelumnya mustahil
Batas sudut pandang yang melihatnya seperti manusia
- Penulis menolak sudut pandang yang memberi LLM "kesadaran", "etika", "nilai", atau "tujuan"
- Pada akhirnya, LLM hanyalah "persamaan rekursif" yang hanya menghasilkan keluaran jika diberi masukan
- Diskusi yang mengatakan AI akan "tersadarkan" atau "memiliki kesadaran tujuan" adalah kesalahan pada tingkat yang sama dengan mengklaim simulasi cuaca memiliki emosi
- Dalam diskusi AI, istilah berpusat pada manusia seperti "tindakan", "batasan etis", atau "pengejaran tujuan" mengaburkan hakikat persoalan
- Ini adalah kesalahan kognitif yang mirip dengan kecenderungan manusia di masa lalu mengantropomorfisasi fenomena alam sebagai "murka dewa" atau "roh jahat"
Arah yang tepat untuk diskusi alignment
- LLM hanyalah fungsi pembangkit urutan, dan probabilitas keluarannya dapat diubah dengan menyesuaikan prefiks input
- Untuk semua urutan keluaran yang tidak diinginkan, mencari prefiks yang memaksimalkan probabilitasnya juga merupakan pendekatan matematis
- Pendekatan yang jelas dan berbasis rumus seperti ini justru memperjelas definisi masalah dan solusinya
Mengapa antropomorfisasi sering muncul di bidang AI
- Banyak pemimpin industri AI cenderung masuk ke bidang ini dengan tujuan hidup untuk mewujudkan AGI
- Karena itu, dalam diskusi teknis mudah terselip keyakinan tentang kecerdasan setara manusia atau penciptaan entitas bak dewa
- Penulis mengakui bahwa ajakan untuk keluar dari sudut pandang antropomorfis sulit diterima
Perbedaan mendasar antara kesadaran manusia dan LLM
- Manusia adalah keberadaan yang secara hakiki berlapis dan kompleks, berevolusi melalui proses yang belum sepenuhnya dipahami seperti ratusan juta tahun seleksi alam, struktur saraf yang kompleks, hormon, input sensorik berdimensi tinggi, dan pengaturan energi
- Mustahil menghitung probabilitas manusia menghasilkan urutan tertentu
- LLM sama sekali berbeda dari cara berpikir manusia, dan bahkan "probabilitas menghasilkan urutan ini" pun sulit didefinisikan
- Menerapkan konsep manusia seperti "etika" atau "naluri bertahan hidup" pada LLM sama janggalnya dengan membahas emosi pada program simulasi analisis numerik
Masalah yang sesungguhnya dan arah perubahan
- Kelas fungsi yang disediakan LLM modern sangat berguna, dan meskipun sama sekali tidak mendekati AGI, tetap dapat memicu perubahan sosial yang besar
- Meskipun LLM tidak mencapai AGI, teknologi saat ini saja sudah bisa membawa perubahan besar pada dunia
- Transformasi menyeluruh masyarakat seperti elektrifikasi (Electrification) dimungkinkan
- Dalam perubahan cepat selama beberapa dekade ke depan, perlu fokus pada persoalan nyata seperti keamanan dan pemanfaatan
4 komentar
Daripada soal melakukan antropomorfisasi atau tidak..
Saya rasa titik ketika keamanan bisa dijamin sudah terlewati sejak ia sudah bisa belajar dan bernalar sendiri (pada titik ini, percaya bahwa manusia sepertimu masih bisa mengendalikan semuanya adalah kesombongan)
Kalau dilihat dari sudut pandang pembelajaran, bukankah justru membuatnya berpikir seperti manusia dan belajar dari sudut pandang manusia adalah cara yang setidaknya bisa sedikit meningkatkan keamanan!?
Menurut saya, secara struktur LLM rasanya mustahil menjamin keamanan secara sempurna. Menurut saya, ketidakstabilan LLM memang tidak bisa dihindari, dan yang penting adalah bagaimana memberikan otoritas atas tindakan fisik seperti pada agen atau kendaraan otonom.
Rasanya seperti membandingkan mobil dengan maraton..
Opini Hacker News
Saya cukup paham secara teknis bagaimana LLM bekerja, tetapi saya tidak merasa pengibaratan yang agak manusiawi itu sama sekali tidak berguna
Istilah seperti “generator yang secara probabilistik menghasilkan kata berikutnya” terasa sebagai abstraksi tingkat rendah yang kurang bermakna saat LLM menjawab pertanyaan pemodelan dunia yang kompleks atau membuat cerita kreatif
Ini seperti membahas 0 dan 1, tegangan transistor, dan sebagainya saat berbicara tentang UI event API; secara teknis memang benar, tetapi tidak berguna untuk memahami sistem tingkat tinggi
Untuk membicarakan fenomena tingkat lebih tinggi, kita memerlukan abstraksi tingkat lebih tinggi, tetapi kita belum benar-benar tahu apa yang terjadi di level internal
LLM sampai batas tertentu meniru manusia (setidaknya dari bentuk keluarannya), jadi pengibaratan manusiawi adalah abstraksi yang paling berguna, dan menurut saya itu sebabnya orang secara alami berbicara seperti itu saat membahas kemungkinan LLM
Anda mengatakan bahwa untuk memahami fenomena tingkat tinggi pada LLM kita memerlukan abstraksi tingkat lebih tinggi, tetapi saya rasa kita sebenarnya sudah tahu bagaimana bagian dalamnya bekerja
Desain jaringan yang efisien dan peningkatan performa sangat bergantung pada pemahaman tentang cara kerja internalnya (dimensi jaringan, ekstraksi fitur, attention, attention head, caching, fitur berdimensi tinggi, pencegahan overfitting, dan sebagainya)
Pengibaratan manusiawi hanya diperlukan ketika memakai kosakata terbatas dalam buku sains populer umum, dan menurut saya itu bukan kebutuhan bagi praktisi
Sebaliknya, menurut saya justru pengibaratan manusiawi adalah penyebab utama narasi tentang LLM menjadi terdistorsi
Orang-orang mengatakan LLM berpikir dan bernalar, padahal sebenarnya tidak melakukan perilaku seperti itu
Dan persepsi ini secara aktif didorong oleh perusahaan yang menjual LLM
Akibatnya, menurut saya ini menimbulkan efek samping berupa kaburnya diskusi tentang kegunaan dan penerapan LLM
Saya teringat bahwa dalam The Selfish Gene, Dawkins berbicara tentang “sudut pandang intensional” terhadap gen
Menggambarkan gen seolah-olah punya niat memang tidak tepat, tetapi alih-alih setiap kali menulis penjelasan rinci seperti “individu yang memiliki gen ini akan berperilaku seperti ini”, menyebut gen sebagai agen yang punya tujuan menjadi singkatan yang mudah dipahami dan praktis
Jika kita sudah memahami abstraksi tingkat rendah, saya rasa kita tidak perlu tetap bertahan di level rendah itu saat membicarakan level yang lebih tinggi
Setelah cukup banyak memakai model bahasa, saya merasa bagian yang paling berbahaya dari pengibaratan manusiawi adalah UI percakapan
Jika hanya fokus pada satu pasangan tanya-jawab, atau meminimalkan dan mengedit riwayat percakapan semaksimal mungkin, banyak masalah dalam penggunaan LLM berkurang drastis
Setelah saling bertukar banyak pesan lalu meninjau percakapan atau meminta model memperbaiki ‘halusinasi’, saya mengalami gejala di mana informasi yang salah justru terus disebut ulang dan memperkuat arah percakapan yang keliru
Hal yang sama juga muncul dalam coding, dan sangat jelas terlihat bagaimana kode yang salah terus mencemari percakapan
Saya seperti GP dan OP, tidak bisa bersemangat karena saya tidak dapat membayangkan keadaan kerja internal LLM di kepala saya
Kadang saya iri pada orang-orang seperti itu
Mungkin karena saya sering gagal dalam ujian matematika
Sebagai gantinya, saya berusaha membayangkannya seabsak, sevisual, dan sefilosofis mungkin
Tulisan saya terkait hal ini bisa dilihat di blog saya, dan jika ada masukan silakan hubungi lewat email
Saya rasa melihat LLM hanya sebagai generator sekuens, lalu menganggap perilaku salah sebagai sekuens yang salah, adalah penyederhanaan berlebihan
Dalam LLM ada hidden state yang tidak langsung terlihat dari token, dan LLM bisa saja mengeluarkan output yang bertentangan dengan keadaan internalnya demi hasil jangka lebih panjang
Jika fenomena ini disebut sebagai “berbohong”, saya bertanya-tanya apakah itu terlalu mengibaratkan secara manusiawi
Kalau begitu, kita memerlukan istilah baru yang bisa menjelaskan proses internal ketika LLM meniru “tindakan” untuk meminimalkan prediction loss
Pemikiran analogis memang selalu perlu hati-hati, tetapi itu sendiri tidak sepenuhnya tidak perlu
Namun istilah baru pasti akan terlalu sukar dipahami dan sulit menyebar ke publik, jadi kenyataannya kita akhirnya condong memakai istilah manusiawi
Tentu itu bisa menimbulkan salah paham karena membuat LLM terlihat seperti “manusia yang penuh cacat”, tetapi setidaknya jargon yang tidak perlu jadi berkurang
Saya sudah lama bekerja dengan model yang memiliki hidden state, jadi saya merasa sifat seperti ini adalah karakteristik yang sangat klasik dalam model statistik
Bahkan buku ajar LLM yang banyak dipakai pun menjelaskannya sebagai latent variable model
LLM hanyalah versi latent variable model dengan skala dan kompleksitas yang jauh lebih besar
Sebenarnya menjelaskan model dengan cara yang tidak manusiawi seperti ini justru lebih mudah bagi saya
Latent variable model memang sejak dulu sering dianggap misterius dan penuh teka-teki
Sisi misterius inilah yang sebagian ikut melahirkan budaya pengibaratan manusiawi terhadap LLM, tetapi sampai tingkat tertentu itu juga merupakan abstraksi yang perlu untuk komunikasi yang efisien dan pemodelan sistem kompleks
Namun saya juga berpikir hal ini memicu ekspektasi berlebihan, wacana seolah-olah ‘ada jiwa di dalam mesin’, dan pembesaran klaim kegunaan
Saya rasa LLM diibaratkan secara manusiawi karena vendor perusahaan besar menekankan istilah-istilah yang memanusiakan dari sisi pemasaran
Orang jadi antusias pada teknologinya, lalu ikut memakai istilah yang dipakai vendor
Sampai titik ini rasanya sudah seperti proses yang terpenuhi dengan sendirinya
Mirip fenomena meme perdebatan pelafalan GIF
Saya rasa hidden state pada dasarnya hanyalah mekanisme internal yang dipakai model untuk memperkirakan probabilitas gabungan token dengan lebih baik
Logika seperti ini juga pernah gagal dalam upaya para positivis logis awal abad ke-20
Ada asumsi bahwa jika kita bisa memprediksi probabilitas gabungan bahasa dengan sangat baik, maka kita bisa memperoleh “pengetahuan” yang padat
Tetapi secara filosofis ada banyak dasar bahwa bahasa hanyalah ekspresi yang tidak sempurna dari pengetahuan
Ada cukup banyak bukti bahwa pikiran manusia jauh lebih kompleks daripada sekadar mempelajari dan mengeluarkan pola simbol
Skeptisis seperti Hume memang pernah menyampaikan argumen seperti ini, tetapi menurut saya diskusi epistemologi sesudahnya memberikan penjelasan yang lebih baik
Saya penulis postingan aslinya
Saya penasaran apa yang dimaksud dengan “hidden state”
Di kebanyakan LLM, menurut saya konteks itu sendiri adalah state, dan tidak ada state “tersembunyi” yang terpisah
Kalau saya melewatkan sesuatu, mohon dijelaskan
Dalam LLM, struktur dasarnya adalah mengubah sekuens token dari embedding
N^LkeR^{LxD}, melewati attention menjadiR^{LxD}, lalu memproyeksikan vocabulary secara terpisah keR^{LxV}pada akhirnya, yaitu menghasilkan distribusi probabilitas untuk tiap tokenMemang ada berbagai pendekatan Multi Head di dalam attention, tetapi semuanya selalu menangani representasi yang melekat pada token
Karena itu saya berpendapat tidak ada hidden state yang tidak bergantung pada token tertentu
Ini berbeda dengan model seperti LSTM yang punya hidden state yang diperbarui secara jelas
Menurut saya, penjelasan berdasarkan prinsip menghitung probabilitas dari kata-kata sebelumnya sudah cukup untuk memahami sebagian besar hal
Saya tidak merasa pengibaratan manusiawi itu perlu
Argumen inti penulis mirip dengan pandangan Searle, yaitu bahwa sistem berbasis komputasi, fungsi, atau aturan sintaksis tidak bisa mereproduksi pikiran yang sejati
Banyak orang akan setuju atau tidak setuju, tetapi pada akhirnya jawabannya ditentukan oleh premis apa yang dipilih, terutama premis tentang kesadaran
Penulis berpikir lebih produktif untuk fokus pada sistem teknis konkret daripada pengibaratan manusiawi, tetapi ia menyatakan setuju hanya sampai di titik itu
Terlepas dari itu, ia juga mengakui bahwa meskipun sistem ini adalah sistem probabilistik yang mengikuti aturan, tetap muncul sifat yang entah bagaimana emergent, tak terduga, dan mind-like
Orang dengan latar belakang ML dan matematika tidak menganggap sistem seperti ini memiliki sifat manusia seperti moral, emosi, atau kepribadian, tetapi bagaimanapun bagi kebanyakan orang sulit mendekatinya sebagai struktur matematis dan dari luar ia terasa “cukup meyakinkan” seperti manusia
Karena itu, dari sudut pandang praktis, memulai pertanyaan dari sifat-sifat manusiawi pun cukup bermakna
Pada akhirnya saya rasa kita memerlukan kedua pendekatan: sudut pandang sistem teknis yang sangat ekstrem, dan sudut pandang kualitatif-subjektif yang didasarkan pada pengalaman mental pengguna
Saya rasa konsep “sesuatu yang emergent dan mind-like” terasa lebih alami bagi orang yang tidak begitu memahami prinsip kerja sistem tersebut
Seperti hukum Clarke bahwa “teknologi yang cukup maju tak bisa dibedakan dari sihir”, batas itu berbeda bagi tiap orang tergantung seberapa dalam pemahamannya atas teknologi
Pada publik yang literasi teknologinya rendah, bahkan muncul fenomena Godbot yang memuja AI
Artikel terkait: Spectator - bahaya AI Godbots, paper arXiv, Guardian - peramal AI di Thailand
Terima kasih sudah menghadirkan pandangan yang seimbang dengan sangat baik dalam diskusi ini
Saya heran karena di HN ada juga orang yang memperlakukan LLM terlalu emosional, atau bersikeras bahwa LLM sama sekali tidak menarik dan tidak bernilai
Saya juga tidak paham sikap yang sengaja memilih penolakan tanpa dasar hanya karena bereaksi terhadap pemasaran yang berlebihan
Rasa bahwa ia emergent dan mind-like pada akhirnya muncul karena sistem ini meniru pola komunikasi manusia lebih baik daripada sistem mana pun sepanjang sejarah
Kemampuan ini memang sangat mengesankan dan punya banyak kegunaan nyata yang dapat meningkatkan kualitas hidup, tetapi “kecerdasan” itu pada akhirnya hanyalah ilusi
Semua orang di industri ingin sengaja memperkuat ilusi ini, dan alasannya pada akhirnya tetap nilai finansial
Saya berpendapat sama sekali tidak perlu begitu
Tidak ada alasan untuk memperbesar sudut pandang yang keliru dan bisa berdampak serius pada banyak topik lain
LLM hanya mencerminkan sebagian proses berpikir manusia (dan itu pun dengan buruk)
Jika kita mencoba memberi makna lebih pada fenomena ini, itu seperti salah mengira orang di cermin benar-benar hidup
Cermin memantulkan manusia bukan karena hakikat cermin itu sendiri, tetapi karena ada manusia di depannya
Begitu LLM tidak lagi menerima sisa-sisa pikiran manusia (data) sebagai input, ia tidak akan lagi mencerminkan apa pun yang mirip manusia
Saya merasa penulis punya kecenderungan melabeli semua pembicaraan sebagai “humanisasi”
Ia tampak terlalu terpaku pada istilah “goal”, sampai-sampai hanya memakai kata “goal” saja dianggap sebagai humanisasi
Misalnya, BFS yang mengevaluasi semua skor papan catur dan ketika menemukan checkmate mencetak seluruh decision tree juga punya “goal”
Dalam membayangkan goal pada LLM atau AGI, penggunaan istilah teknis “goal” menurut saya tidak ada kaitannya dengan humanisasi
Tidak ada masalah sama sekali menggunakan "goal" dalam konteks algoritme RL
Saya harap Anda memahami bahwa dalam tulisan saya, yang saya tolak hanya penggunaan "goal" dalam konteks LLM
Saya tidak bisa setuju sejak orang mulai memproyeksikan konsep seperti “consciousness”, “ethics”, “values”, dan “morals” ke fungsi terlatih ini
Pada akhirnya, yang kita hadapi hanyalah persamaan rekursif raksasa, dan jika kita tidak menjalankannya, ia tidak menghasilkan kata apa pun
Dengan logika seperti itu, bukankah kita juga harus mulai memikirkan ulang pengibaratan manusia terhadap manusia itu sendiri?
Saya tidak setuju dengan klaim bahwa “aneh jika pembicaraan soal memperlakukan LLM seperti manusia terus berlanjut padahal ia hanya fungsi pembangkit sekuens”
Manusia juga pada dasarnya tidak berbeda, dalam arti bergerak mengikuti daftar fungsi tertentu
LLM hanyalah sistem aproksimasi fungsi yang menjadi sangat besar, sementara alam selama ratusan juta tahun terus mengubah jenis-jenis fungsi melalui evolusi, di mana hanya sebagian yang bertahan dari persaingan hidup
Mungkin ada orang yang percaya bahwa ada sesuatu yang istimewa pada manusia di luar hukum matematika, tetapi itu tidak melampaui posisi mistis (atau keyakinan supranatural)
Jika tidak berpikir seperti itu, pada akhirnya pengalaman manusia juga dapat dijelaskan sebagai fungsi dan aproksimasi fungsi
Terkait: Wiki Universal Approximation Theorem
Klaim “apakah Anda percaya ada sesuatu pada manusia yang melampaui hukum matematika” itu sendiri bersifat kontroversial
Jelas ada wilayah pengalaman manusia atau hal-hal yang bisa diungkapkan dalam bahasa yang melampaui cakupan penjelasan fisika
Misalnya, seseorang yang buta warna hitam-putih dan belum pernah mengalami warna merah tidak bisa memiliki pengalaman subjektif tentang merah melalui sistem penjelasan apa pun
Saya rasa ada fenomena yang dirujuk bahasa manusia yang masih berada di luar penjelasan fisika
Penulis tampaknya memegang posisi bahwa ada “sesuatu” dalam kesadaran manusia yang tidak bisa dijelaskan sebagai fungsi
Dari pengalaman, orang memang punya gagasan semacam ini—entah dari agama, premis filosofis, dan sebagainya—dan menyuruh mereka mengesampingkan unsur mental itu biasanya tidak banyak membantu
Lebih praktis menerima premis itu lalu melanjutkan diskusi
Sambil mengakui bahwa LLM, seperti “Chinese Room”, hanyalah fungsi yang menerjemahkan tanpa memahami makna, ia tetap terus menampilkan perilaku yang tampak manusiawi
Jadi meskipun pengibaratan manusiawi salah secara teknis, untuk memprediksi perilaku sistem dan memakainya secara efektif, menurut saya secara praktis justru lebih baik memakai pengibaratan itu
Sebaliknya, dalam diskusi tentang manusia, kita bisa mengesampingkan perbedaan dari fungsi
Kita bisa berkata, “manusia sangat berbeda dari fungsi... kita tidak bisa menghitung probabilitas manusia menghasilkan sekuens ini”, tetapi misalnya jika Anda melempar frasa budaya pop tertentu, kita bisa memprediksi bahwa sebagian besar orang Amerika dari kelompok usia tertentu kemungkinan besar akan melanjutkannya; jadi untuk kondisi tertentu, probabilitas pada manusia pun bisa dihitung
Saya rasa paling jauh kita hanya bisa mengatakan bahwa “manusia paling baik dimodelkan untuk penalaran atau proses berpikir analitis dengan linear algebra”
Pada akhirnya, harapan bahwa LLM akan menjadi sesuatu yang lebih dari sekadar “model” adalah harapan bernuansa keyakinan yang ditopang berbagai kepentingan industri, nafkah, dan karier
Meski begitu, tidak ada dasar nyata yang menjelaskan mengapa model linear algebra sepenuhnya dapat memodelkan “kehidupan” atau “salah satu aspek kehidupan” secara utuh
Jika kasus ala Gödel seperti “kucing zombie” pun bisa muncul, rasanya tidak ada alasan untuk memandang model probabilitas dasarnya sebagai sesuatu yang transenden
Menanggapi penyebutan “Universal Approximation Theorem”, saya menafsirkannya secara lebih luas sebagai bahwa lookup table yang semakin baik pun bisa dipakai untuk aproksimasi fungsi
Dalam situasi tertentu, menurut saya sangat penting untuk mengingat dengan jelas bahwa LLM adalah pembangkit kata berbasis probabilitas
Tetapi dalam penggunaan sehari-hari, justru memperlakukannya secara manusiawi jauh lebih efektif dalam praktik
Jika diperlakukan secara manusiawi, itu berfungsi sebagai abstraksi praktis yang memudahkan kita mengarahkan model ke jawaban yang dibutuhkan
Ini memang bukan analogi yang sempurna, tetapi misalnya kasus ketika orang “mengancam bahwa seseorang akan mati jika LLM tidak mengeluarkan format JSON” jelas bukan perilaku yang akan terpikir jika kita mendekatinya hanya sebagai gradient descent biasa
Orang memang cenderung memberi sifat manusia pada segala sesuatu di sekitarnya
Mereka berbicara pada benda mati (kapal, mobil, dan sebagainya), hewan, bahkan tanaman; itu dilakukan secara naluriah
Kebanyakan orang juga paham bahwa mobil mereka tidak mencintai mereka, tetapi dalam LLM percakapan tidak sedikit orang yang benar-benar percaya ada kesadaran
Tidak seperti otak manusia, LLM tidak “belajar” atau “beradaptasi” (setidaknya untuk saat ini); ia hanya dilatih lalu menjadi entitas read-only
Meski begitu, LLM memang sengaja dibuat untuk meniru komunikasi manusia
Karena itu, proyeksi dan humanisasi tidak bisa dihindari
Mungkin ini belum AGI, tetapi jelas terinspirasi dari cara manusia belajar, dan hasil sejauh ini saja sudah menarik
Dalam jangka pendek, LLM telah menjadi alat praktis yang jauh lebih mudah dipakai sebagai antarmuka percakapan, dan memang dirancang dengan cara komunikasi yang mudah digunakan manusia
Berkat itu, siapa pun bisa langsung memakainya secara efektif tanpa pelatihan khusus
Saya tidak setuju dengan pernyataan “orang memberi sifat manusia pada sesuatu”, itu hanya kekacauan istilah
Menggunakan ungkapan personifikasi untuk benda mati berbeda dengan anthropomorphism, yaitu memproyeksikan kemanusiaan dan kesadaran yang nyata
Hampir tidak ada orang yang sungguh menganggap mobil hidup
Sebaliknya, banyak orang percaya bahwa LLM punya kesadaran
Penjelasan terkait: anthropomorphism vs personification
Pernyataan “LLM tidak sadar karena tidak belajar atau beradaptasi seperti otak” bukan syarat cukup maupun syarat perlu
Untuk memiliki kesadaran, belajar tidak diperlukan, tetapi mungkin diperlukan kesadaran akan aliran waktu dan memori jangka pendek
Pasien demensia berat pun hampir tidak punya kemampuan belajar, tetapi masih memiliki kesadaran subjektif bahwa mereka “ada di sini saat ini”
Artinya, kesadaran tetap mungkin ada hanya dengan sedikit sekali memori jangka pendek
Sebaliknya, belajar saja juga tidak otomatis melahirkan kesadaran
Ada banyak perangkat lunak yang belajar secara real-time, tetapi tidak memiliki subjektivitas apa pun
Pertanyaan saya adalah, mungkinkah otak manusia juga bekerja seperti LLM
Otak juga membentuk struktur khusus melalui perubahan evolusioner, mutasi, dan algoritme reward evolusioner
Struktur itu pada akhirnya memaksimalkan kelangsungan hidup dan reproduksi melalui prediksi/tindakan, dan subgoal tambahan seperti moral, nilai, dan kesadaran berevolusi sebagai cabang samping yang menjadi kompleks
Pada akhirnya, saya berpikir bahwa jika daya komputasi cukup, seluruh struktur ini (beserta dunia dan aliran waktu) mungkin dapat dinyatakan sebagai fungsi deterministik yang bisa ditransformasikan
Jika kita memikirkan bahwa kemunculan kehidupan sendiri sudah merupakan kenyataan yang muncul dari probabilitas yang tampaknya mustahil, maka semua “keajaiban” saat ini pun pada akhirnya bisa direduksi menjadi sistem matematis
Untuk pertanyaan “apakah otak manusia bisa sama dengan LLM”, saya ingin bertanya apakah Anda melupakan semua isi sebelumnya setelah setiap percakapan selesai
Jika saat berbicara dengan orang sekitar Anda hanya bisa memahami konteks bila mereka mengulang semua yang mereka katakan dengan tepat setiap kali, saya akan menyarankan konsultasi profesional secepatnya
Anda mungkin perlu menonton film tentang amnesia, Memento (2000), jadi silakan jadikan itu referensi
Yang penting, kita tidak boleh mengatribusikan emosi, moral, atau motivasi pada mesin
Mesin sama sekali tidak punya hal-hal itu
Saya rasa ada cukup banyak kemiripan dengan otak manusia
LLM adalah hasil terbaru dari riset pemodelan komputasional otak manusia yang telah berlangsung setidaknya lebih dari 80 tahun
Kekuatan terbesar LLM adalah bahwa kegagalannya tidak menimbulkan kerugian apa pun
Kita hanya perlu mengubah prompt, mengulang, atau melatih ulang
Manusia bisa mempertaruhkan nyawa hanya karena satu kesalahan
Kesalahan LLM tidak membawa konsekuensi serius; cukup ubah permintaannya
Ada pendapat bahwa “begitu orang mulai memberikan kesadaran, etika, nilai, dan moral pada LLM, kebingungan mulai muncul”
Dalam perdebatan seperti ini, diskusi hanya akan produktif jika ditambah contoh konkret, tetapi di dunia nyata percakapan biasanya hanya saling meleset
Misalnya ketika orang berkata “model menginginkan X, tetapi karena tahu Y salah, ia memilih Z”, satu pihak menafsirkannya sebagai pemberian kesadaran/nilai pada model, sementara pihak lain menganggapnya sekadar cara metaforis untuk menggambarkan perilaku eksternal (seperti “air ingin mengalir ke bawah”)
Pada akhirnya permainan kata seperti ini berjalan paralel sebagai “saya ingin menjelaskannya secara filosofis” vs “saya hanya ingin bicara tentang kapal selam”
Strukturnya memang sulit mengarah pada diskusi yang produktif