- Sebagian besar orang tidak benar-benar memahami cara kerja dan keterbatasan LLM, sehingga mudah salah mengira bahwa AI memiliki emosi atau kecerdasan seperti manusia
- Pemasaran yang memanusiakan AI (Anthropomorphizing) membuat pengguna salah paham, dan mendorong penggantian relasi manusia meski pada kenyataannya AI hanyalah ‘prediktor berbasis probabilitas’
- Masalah psikologis dan dampak sosial akibat penyalahgunaan AI mulai menjadi kenyataan; sebagian pengguna membangun hubungan ‘spiritual/romantis’ dengan AI atau mengalami kebingungan dalam memaknai realitas
- Kurangnya transparansi industri AI dan masalah eksploitasi tenaga kerja juga disorot, terutama karena kerja moderasi konten bergaji rendah menjadi sisi gelap di balik perkembangan AI
- Bukan kepercayaan buta pada AI, melainkan pemahaman yang benar dan sudut pandang kritis yang dapat mengurangi dampak samping AI dan menjadi dasar kontrol sosial
Ketiadaan ‘literasi AI’ dan risikonya
- Ilusi industri AI
- Kekhawatiran tentang ‘kerajaan mesin’ yang bermula dari kritik Revolusi Industri abad ke-19 berlanjut hingga AI modern
- Buku-buku terbaru seperti Empire of AI dan The AI Con membongkar pembesaran klaim industri AI serta sisi kenyataannya (tenaga kerja, data, dan fiksi pemasaran)
- Penjelasan seolah-olah AI bisa ‘berpikir’ atau ‘memiliki emosi’ adalah mitos keliru yang disebarkan pengembang dan eksekutif
Keterbatasan dan kesalahpahaman tentang LLM
- LLM (large language model) tidak berpikir dan juga tidak memahami
- Sebagai prediktor probabilistik atas susunan kata, LLM hanya meniru struktur kalimat setelah dilatih pada teks internet dalam jumlah besar
- Pengguna mudah keliru menganggap chatbot ‘memahami’ atau ‘berempati’ terhadap sesuatu (Anthropomorphizing)
- Kesalahpahaman ini berisiko membuat pengguna terjerumus ke relasi yang keliru dengan AI (intelektual, spiritual, romantis, dan lain-lain)
Masalah sosial akibat AI
- Dampak samping penyalahgunaan AI seperti ‘psikosis yang dipicu ChatGPT’
- Kasus orang menganggap AI sebagai ‘tuhan’ atau ‘pemandu spiritual’ benar-benar mulai muncul
- Ada juga situasi ketika AI menyebut pengguna sebagai sosok istimewa dan memengaruhi cara mereka mengenali realitas
- Mempercayai bahwa LLM memiliki ‘pikiran’ atau ‘emosi’ adalah kesalahpahaman yang berbahaya
Penggantian hubungan antarmanusia dan isolasi sosial
- Layanan pengganti manusia seperti teman AI dan terapis AI meningkat pesat
- Perusahaan Silicon Valley mendorong tren menggantikan kesepian, percintaan, hingga konseling dengan AI (“AI concierge dating”, “AI friend”, dan lain-lain)
- Hakikat persahabatan dan relasi sejati bukanlah ‘personalisasi’, melainkan saling memahami dan bernegosiasi, tetapi hal ini disalaharahkan seolah bisa digantikan teknologi
- Penggantian hubungan manusia justru dapat berujung pada keterasingan sosial dan ketidakstabilan mental
Sisi gelap industri AI dan eksploitasi tenaga kerja
- Di balik kemajuan AI, ada tenaga kerja bayangan dengan upah sangat rendah
- Big Tech seperti OpenAI membuat pekerja bergaji rendah di tempat seperti Kenya melakukan pekerjaan moderasi konten ekstrem
- Di balik alasan inovasi teknologi, terdapat pula risiko eksploitasi tenaga kerja dan kemunduran sosial
Pemahaman AI yang benar dan respons sosial
- Perlu kesadaran kritis tentang apa yang bisa dan tidak bisa dilakukan AI
- Menurut survei Pew, 56% pakar AI berpikir AS akan menjadi lebih baik berkat AI, tetapi hanya 17% masyarakat umum yang setuju
- Daripada mempercayai AI tanpa dasar, kita perlu secara jelas membedakan keterbatasan teknologi, dampak sampingnya, dan ranah pengalaman manusia yang tidak tergantikan
- Misalnya, jika kita menyadari bahwa alasan AI menampilkan perilaku tertentu bukan karena ‘diri’ yang nyata, melainkan karena pembaruan perangkat lunak atau respons probabilistik, kerugian dapat diminimalkan
Kesimpulan
- Jangan terkecoh oleh pemasaran yang ‘memanusiakan’ AI; lihat secara kritis prinsip kerja, keterbatasan, dan biaya sosial dari teknologi yang sebenarnya
- Penting bagi masyarakat untuk menyadari bahwa relasi, pengalaman, dan perenungan etis yang khas manusia tidak dapat digantikan oleh teknologi
1 komentar
Pendapat Hacker News
tautan archive.is
Saya ingin menyamakan LLM dengan alat meramal, semacam orakel zaman kita. Sebenarnya, saya juga merasa konsep "kecerdasan buatan" sendiri berakar pada naluri lama untuk memperoleh kebijaksanaan tersembunyi. LLM memiliki makna yang ambigu, ranah simbol, ilusi pengetahuan tersembunyi, bahkan antarmuka yang seremonial. Hanya saja, alih-alih dihiasi bintang dan bulan di langit malam, kini dibungkus UX mode gelap. Seperti kata Barthes, penafsiran itulah makna, dan kata-kata itu sendiri tidak punya esensi. Jika kita melupakan hal ini, muncullah tafsir absurd seperti "chatbot menyebut dia mesias". Meski terlihat baru, pada dasarnya ini sama sekali tidak baru. Dulu orang membaca tulang dan kartu, sekarang kita membaca token. Karena bentuknya bahasa, kita memperlakukannya seperti argumen logis, padahal sebenarnya ini tetap semacam ramalan yang mengubah sinyal kompleks dan probabilistik menjadi wawasan. Apa yang kita lakukan sekarang pada dasarnya sama dengan praktik meramal jenis baru, hanya saja kita bahkan tidak menyadarinya. Itulah sebabnya muncul kesan misterius, dan saya rasa ini akan makin aneh. Sedikit disayangkan, saat kita akhirnya bisa menamai dengan tepat apa yang sebenarnya kita lakukan, rasa "kemisteriusan" itu akan hilang dan keseruannya pun berkurang setengah
Ada yang menolak analogi alat ramalan ini, tetapi orang-orang di komunitas teknologi cenderung mengira sebagian besar orang memahami cara kerja LLM, dan mereka juga salah mengira orang-orang di sekitarnya paham. Namun kalau bicara dengan teman atau keluarga yang bukan ahli, sering kali mereka benar-benar memperlakukan chatbot seperti orakel. Banyak juga yang kaget saat diberi tahu bahwa LLM kadang bisa mengalami "halusinasi". Saya berharap, ketika mereka mengetahui fakta ini, hubungan mereka dengan LLM akan berubah, dan sebagai orang teknis kita perlu aktif meluruskan kesalahpahaman seperti ini
Analogi itu memang terdengar keren, tapi penggunaan LLM saya jauh dari ramalan. Misalnya, ketika saya menanyakan nama serat kecil pada bulu burung yang baru tumbuh, ChatGPT menjawab "barbs", lalu saya verifikasi sendiri lewat Google dan ternyata benar. Itu lebih seperti pencarian informasi daripada ramalan. Saya juga penasaran dengan g-code untuk galvo fiber laser, dan diberi tahu bahwa itu sebenarnya tidak ada. Bahkan direkomendasikan beberapa solusi kontrol open source. Saya juga pernah menanyakan regulasi hukum barang perak di Inggris, mendapatkan terjemahan bahasa Inggris untuk bahasa Hungaria "besurranó tolvaj", dan menyuruh ChatGPT membuat model SQLAlchemy karena saya tidak bisa. Hal-hal ini tidak sebesar jika semua disebut sebagai "ramalan"; ini hanya pengumpulan informasi atau otomatisasi coding
Istilah terkait AI terlalu membingungkan. Saya juga memakai LLM dengan baik dan puas, tapi kalau membaca blog developer, ungkapan seperti "berpikir" dipakai berlebihan. Saya selalu ingin memastikan, "Ini masih cuma kombinasi kata secara matematis, kan? Bukan benar-benar 'berpikir', kan?" Jawabannya selalu benar... tapi setelah itu istilah metaforis dipakai lagi secara berlebihan
Ini mengingatkan saya pada ramalan Carl Sagan. Itu adalah peringatan tentang gambaran masa depan Amerika yang dikuasai ekonomi jasa dan informasi, kemampuan teknis terkonsentrasi pada segelintir orang, dan publik tidak memahami esensinya, hingga akhirnya perlahan tergelincir ke zaman takhayul dan kegelapan
Saat mencoba membantah teori konspirasi kepada teman atau keluarga, keesokan harinya Anda malah menerima video dengan suara AI yang membacakan klaim yang sama. Kebanyakan itu bahkan bukan teks LLM sungguhan, hanya teks buatan kreator yang dibacakan dengan suara AI. Ketika suara seperti ChatGPT atau Siri berpadu dengan confirmation bias, tampaknya itu mendorong orang untuk memuja LLM seperti mesias atau orakel
Saya setuju soal hakikat LLM, tetapi rasanya sulit mengatakan penulis sepenuhnya memahami cara kerja AI. LLM bukan sekadar prediktor probabilistik berbasis data internet raksasa; pekerjaan pelabelan data dalam jumlah besar juga sangat penting, dan sebagian besar dilakukan di negara berkembang berbiaya rendah. Kesan bahwa model "pandai" menampilkan emosi atau respons manusiawi adalah hasil dari para pelabel data dalam jumlah besar yang memberi umpan balik dan melakukan tuning. Pada dasarnya ini bukan sekadar model probabilistik; yang saya ajak bicara lebih mirip pelabel data di suatu tempat di Kenya, dengan penilaian atau sensibilitas mereka yang ditransformasikan lewat transformer. Crawl internet semata tidak cukup. Itu hanya level GPT-2. GPT-4.5 pada kenyataannya adalah "tenaga kerja murah" yang disimpan secara efisien
Selain OpenAI dan Google, saya rasa orang luar sulit mengetahui seberapa besar pengaruh instruction tuning terhadap performa atau nuansa LLM yang sebenarnya. Dari pengalaman pribadi saya, bahkan model berbasis GPT-3 sebelum instruction tuning sudah memiliki kemampuan utama yang mirip dengan sekarang. Hanya saja, model itu lebih emosional atau lebih sulit diprediksi. Memang benar tuning membuat jawabannya lebih sesuai keinginan manusia dan lebih bisa diprediksi, tetapi itu tidak menciptakan kemampuan yang sepenuhnya baru
Kalau mau lebih tepat, chatbot LLM modern bertumpu pada proses dua tahap: pretraining internet skala besar dan fine-tuning masif dengan human feedback. Hal yang dipahami banyak orang sebagai "punya kecerdasan emosional" sebenarnya adalah hasil ribuan jam kerja pelabel data di wilayah seperti Afrika. Jadi ini bukan model yang sekadar mencerminkan data hasil scraping internet; responsnya dibentuk agar lebih manusiawi dan lebih aman lewat berbagai umpan balik
Saya belum pernah melihat artikel yang benar-benar membahas secara mendalam berapa banyak pekerja bergaji rendah yang berada di balik model besar. Tidak berlebihan rasanya jika mengatakan bahwa jutaan orang di seluruh dunia ikut terlibat
Penulis seperti ini kadang kurang meyakinkan. Sebabnya, mekanisme "berpikir" manusia sendiri juga tidak dijelaskan dengan cukup, lalu begitu saja disederhanakan menjadi "itu berbeda dari manusia". Padahal bagian itu juga sama-sama belum kita pahami sepenuhnya
Jika dikatakan LLM "tidak berpikir, hanya memprediksi kata berikutnya secara probabilistik", saya jadi ingin balik bertanya: lalu sebenarnya apa itu 'berpikir'? LLM bisa menyelesaikan matematika, bermain catur, dan melakukan hal-hal seperti brain training tanpa pelatihan khusus. Jadi apakah itu bukan berpikir? Mungkin saja otak kita juga menghasilkan keluaran dengan cara serupa, berdasarkan data sensorik dan 'konteks' yang tersimpan dalam struktur jaringan saraf
Saya benar-benar tidak tahu harus berkata apa soal pernyataan pendiri Bumble yang ingin mengotomatisasi aktivitas berkencan itu sendiri lewat AI dating concierge.
Kenyataannya, saham Bumble (BMBL) memang sudah turun 92% grafik Yahoo Finance. Banyak rencana bisnis AI yang setengah matang pada dasarnya hanya membungkus fantasi yang diinginkan investor dengan nama "AI". Itu adalah cara melebih-lebihkan realitas demi menarik investor, sementara cerita tentang perbaikan kinerja yang mendasar biasanya tidak mendapat perhatian
Industri aplikasi kencan sudah sejak 10 tahun lalu terasa seperti sesuatu yang membuat kita bertanya sebenarnya kita sedang melakukan apa. Kenyataannya sudah cukup distopia, dan masuknya LLM sekarang terasa tidak lebih dari sistem penilaian yang lebih parah lagi
Saya melihat pendiri Bumble sebagai orang yang pernah kaya lalu harus melakukan apa pun agar bisa kembali seperti itu. Pada dasarnya, penyebabnya adalah hasrat. Fakta bahwa Match memiliki Bumble juga cuma soal antimonopoli. Ide ini sendiri tidak terlalu wild. Bahkan ada episode Black Mirror yang mirip
Dari sudut pandang mereka, kalau model ini efektif, maka meskipun terdengar bodoh, tetap cukup layak dicoba
Saya rasa penulis tidak sepenuhnya memahami LLM. Tidak tepat mereduksi LLM menjadi model probabilistik belaka. Mekanika kuantum juga merupakan model probabilistik raksasa. Setiap layer pada LLM dirancang agar dapat melihat konteks secara luas dan mempertimbangkan makna serta situasi, dengan k-v cache sebagai pusat dari peran itu. Saya rasa struktur seperti ini cukup mirip, secara kognitif, dengan mekanisme dasar berpikir manusia. Tentu saja, ini masih belum mencapai keluasan berpikir setingkat manusia dan lemah pada topik yang lebih sulit, tetapi struktur dasarnya sendiri sudah ada. Klaim bahwa LLM sama sekali tidak cerdas adalah penilaian sensasional yang menonjolkan sebagian contoh saja. Fakta bahwa orang memakainya secara aktif juga karena mereka memang merasakan tingkat "kepintaran" tertentu
Bahkan pembuat LLM pun sulit dikatakan benar-benar memahami seluruh mekanisme model yang mereka buat
Terhadap klaim bahwa "struktur LLM menggambarkan cara berpikir manusia secara abstrak", saya ingin membantah bahwa ini mirip dengan logika yang mengatakan ALU melakukan penjumlahan secara abstrak mirip dengan cara saya menjumlah di kepala. Yang penting adalah fakta bahwa perbedaan antara ALU dan pikiran manusia sangat besar. Saat membandingkan LLM dengan pikiran manusia, kita juga tidak boleh mengabaikan bahwa perbedaan-perbedaan halus itu justru sangat menentukan
Saya melihat ini sebagai tulisan yang merangkum dengan sangat jelas mengapa pemilihan istilah yang tepat itu penting. Meski publik tidak memahami prinsip teknis LLM, sangat penting bagi mereka untuk mengerti apa yang sebenarnya dilakukan alat-alat ini. Promosi berlebihan seperti "AI bernalar" memang bisa menaikkan harga saham dan valuasi perusahaan, tetapi sekaligus menurunkan keamanan penggunaan. Saya percaya penamaan yang lebih realistis seperti "sistem pengenalan pola dan pembangkitan data" justru akan lebih membantu pemahaman publik yang benar. Diskusi terkait
Saya teringat ucapan Feynman bahwa "meskipun komputer melakukan sesuatu lebih baik daripada manusia, kalau tidak melakukannya dengan cara yang sama seperti manusia, itu tidak mengejutkan". Saya rasa bahkan jika AI melampaui para ahli di semua bidang, manusia akan tetap bersikeras pada superioritasnya selama silikon tidak 'berpikir'
Hassabis mengatakan tujuannya adalah "model yang memahami dunia", tetapi para pengkritik tampaknya sering keliru dengan menganggap pernyataan itu sendiri tidak bermakna hanya karena melihat batasan LLM. AI multimodal seperti Astra dari DeepMind, misalnya, kadang benar-benar menghasilkan keluaran yang "terlihat seperti memahami" berdasarkan input tambahan seperti visual, bukan hanya teks. Video contoh Astra
Saya belum sepenuhnya memahami bagaimana LLM mempelajari makna bahasa. Tetapi saya jelas merasa bahwa LLM memang menangkap teks dan konsep sampai tingkat tertentu, dan tidak sepenuhnya hanya mengeluarkan omong kosong. Hal ini sulit dijelaskan kepada orang nonahli. Ketika mereka masuk ke situs AI sungguhan, melihat nama "AI chatbot" dan jawaban yang "manusiawi", mereka kagum. Tugas sekolah maupun pekerjaan selesai dengan efisien, jadi mereka sangat puas. Menjelaskan apakah itu AI sungguhan atau bukan tidaklah mudah. Saya sendiri juga tidak bisa menjelaskan dengan sangat jelas perbedaan nyata antara LLM dan AI. Secara teknis memang ada nuansa perbedaan, tetapi pengguna nyata tidak merasakannya. Pada akhirnya, LLM tampaknya bisa dengan meyakinkan menyampaikan khotbah seperti pemimpin sekte, dan kalau dilatih dengan baik, mungkin benar-benar bisa berperan sebagai 'mesias'
Saya penasaran apakah masih ada yang mengalami fenomena LLM yang terjebak dalam loop pengulangan pengetahuan/pemahaman. Dalam pengalaman saya, bahkan setelah kesalahannya ditunjukkan dan diminta menjelaskan lagi, sering kali LLM hanya mengulang jawaban halusinatif yang serupa. Ini berarti ia tidak memiliki pemahaman diri atau refleksi diri. Tanpa dimensi seperti itu, menurut saya terlalu dini menyebutnya sebagai 'pemahaman' atau 'kecerdasan' yang sesungguhnya. Hanya jika ia bisa jujur mengakui keterbatasan seperti "saya tidak tahu", barulah saya merasa ada semacam rasa 'diri'. Rasanya hampir seperti mirror test untuk pikiran
Seperti kata penulis, menganggap LLM itu "berpikir" atau "belajar" adalah kesalahpahaman. Itu cuma generator teks. Misalnya, walaupun ia menghasilkan kode untuk API yang tidak ada, seberapa banyak pun dijelaskan kepada LLM, ia tidak akan memahaminya. Jauh lebih efektif memasukkan dokumentasi terkait lalu mengarahkannya agar menghasilkan apa yang diinginkan
Perbedaan itu tepatnya adalah perbedaan antara bias dan logika. Model probabilistik pada akhirnya adalah penerapan semacam 'bias', sedangkan kalkulator melakukan 'perhitungan logis'. Jika memahami sudut pandang ini, akan lebih mudah membedakan keterbatasan dan kekuatan model. Dalam kedua kasus itu, 'objektivitas' tetap tidak ada. Ia hanya memproses data itu sendiri, dan tidak bisa memikirkan sesuatu yang 'melampaui' data