5 poin oleh GN⁺ 2025-07-07 | 4 komentar | Bagikan ke WhatsApp
  • Penulis berpendapat bahwa AGI (kecerdasan umum buatan) tidak akan muncul dalam waktu dekat
  • LLM (large language model) menunjukkan kemampuan yang luar biasa, tetapi tidak memiliki kemampuan untuk belajar secara berkelanjutan dan meningkat secara bertahap seperti manusia
  • LLM saat ini memiliki keterbatasan dalam menyesuaikan diri melalui umpan balik pengguna atau membangun konteks, dan ini menjadi hambatan besar bagi otomatisasi pekerjaan kantoran di dunia nyata
  • Tantangan nyata seperti penggunaan komputer dan data multimodal diperkirakan akan berkembang lambat karena kekurangan data, durasi tugas yang panjang, dan tingkat kesulitan teknis
  • Dalam jangka panjang, penulis berharap perubahan yang sangat drastis akan terjadi jika pembelajaran online menjadi mungkin, tetapi tidak melihat hal itu akan mudah terwujud dalam 10 tahun ke depan

Intro dan pembahasan perkiraan waktu AGI

  • Penulis menyampaikan pandangannya berdasarkan pengalaman berdiskusi dengan berbagai pakar tentang kapan AGI akan tercapai
  • Sebagian orang memprediksi AGI akan muncul dalam 2 tahun atau 20 tahun, tetapi pada Juni 2025 penulis sendiri tidak menilai AGI akan segera tiba

Keterbatasan continual learning

  • Banyak orang berpendapat bahwa teknologi AI saat ini saja sudah lebih transformatif secara ekonomi daripada internet, tetapi penulis tidak setuju
  • Alasan perusahaan Fortune 500 belum bisa memanfaatkan LLM untuk merevolusi pekerjaan secara mendasar bukan karena sikap konservatif para eksekutif, melainkan karena AI saat ini tidak memiliki pembelajaran berkelanjutan
  • Dalam proses membangun dan memakai berbagai alat berbasis LLM secara langsung, penulis menilai LLM hanya menghasilkan performa sekitar 5/10 untuk pekerjaan berulang, tetapi tidak punya kemampuan peningkatan bertahap
  • Produktivitas manusia berkembang melalui kemampuan membangun konteks, menganalisis kegagalan sendiri, dan mempelajari perbaikan kecil lewat pengulangan, sedangkan LLM tidak memiliki jalur untuk menerima umpan balik tingkat tinggi, dan penyesuaian prompt saja tidak memungkinkan ‘pembelajaran’ ala manusia
  • Ada fine-tuning RL (RLHF), tetapi itu masih jauh dari pembelajaran adaptif dan organik seperti manusia, dan ini menjadi batasan yang menentukan dalam otomatisasi kerja nyata
  • Cara model AI membangun konteks yang kaya, mengingat, dan berkembang selama bekerja seperti karyawan manusia masih belum memiliki pendekatan implementasi yang memadai
  • Sebagian pembelajaran konteks memang bisa terjadi dalam satu sesi, tetapi ada keterbatasan besar karena semua konteks yang dipelajari hilang setelah sesi berakhir
  • Solusi seperti memori jangka panjang (rolling context window) memang dicoba, tetapi meringkas pengetahuan pengalaman yang kaya itu rapuh, dan di luar domain berbasis teks kinerjanya bahkan lebih tidak efisien
  • Bahkan jika perkembangan AI berhenti di tingkat saat ini, banyak pekerjaan kantoran tetap akan sulit digantikan oleh teknologi tersebut, dan kemampuan manusia untuk belajar dari konteks menjadi keunggulan kompetitif
  • Artinya, nilai AI baru akan melonjak secara tidak berkesinambungan ketika teknologi pembelajaran berkelanjutan benar-benar terwujud, dan pada akhirnya jika teknologi ini menjadi mungkin, berbagi pembelajaran antar banyak instance dapat memungkinkan AI menjadi superintelligence lebih cepat daripada manusia
  • Namun karena laboratorium riset juga punya insentif besar untuk merilis versi yang belum sempurna sebelum teknologinya benar-benar matang, penulis memperkirakan akan muncul tanda-tanda lebih dulu sebelum lompatan nyata dalam pembelajaran berkelanjutan terjadi

Kesulitan nyata dalam penggunaan komputer dan otomatisasi

  • Dari percakapan dengan peneliti Anthropic, penulis mendengar prediksi bahwa agen penggunaan komputer yang sangat andal akan muncul sebelum akhir 2026, tetapi ia bersikap skeptis
  • Agen penggunaan komputer memang sudah ada sekarang, tetapi efisiensinya masih rendah untuk benar-benar dipakai
  • Untuk mengotomatisasi tugas nyata seperti pelaporan pajak, dibutuhkan banyak sistem, eksekusi agen jangka panjang, dan pemrosesan beragam data multimodal, yang membuat proses pelatihan dan verifikasi menjadi sangat lambat
  • Berbeda dari data pretraining teks yang sudah ada (misalnya dokumen internet skala besar yang dipakai untuk model bahasa), dataset penggunaan komputer multimodal masih kurang, sehingga pengembangan agen yang andal diperkirakan akan memakan waktu
  • Bahkan algoritme inovatif yang baru diusulkan pun memerlukan penyesuaian rekayasa selama bertahun-tahun sebelum benar-benar diterapkan di lapangan, sehingga kemajuan pada tugas penggunaan komputer kemungkinan akan sangat lambat

Peningkatan kemampuan penalaran dan batasannya

  • Model terbaru seperti Gemini 2.5 memang menunjukkan kemampuan bernalar dalam hal menafsirkan niat pembicara, memeriksa logika sendiri, dan merespons konteks
  • Claude Code dan alat sejenis juga dapat dengan cepat menghasilkan kode yang berjalan hanya dari spesifikasi yang diberikan, sehingga memang terlihat tanda-tanda awal ‘kecerdasan umum’ yang masih sangat dasar di berbagai domain
  • Pada domain tempat model LLM tingkat teratas menunjukkan kemampuannya, hasilnya terkadang cukup mengesankan

Prediksi AI/AGI jangka pendek dan jangka panjang

  • Penulis menekankan bahwa ia memegang pandangan probabilistik terhadap prediksinya sendiri, sehingga menyiapkan langkah antisipasi tetap masuk akal
  • Ia bersedia bertaruh dengan probabilitas 50% pada poin-poin berikut
    • Hingga 2028: ada kemungkinan AI mencapai tingkat yang mampu menangani seluruh proses pelaporan pajak perusahaan kecil secara end-to-end
      • Kemampuan penggunaan komputer saat ini masih berada di tingkat GPT-2, dan karena kekurangan data serta horizon waktu yang panjang, optimisasinya sangat sulit
      • Demo yang mengesankan mungkin akan muncul pada 2026~2027, tetapi penulis memperkirakan tingkat yang benar-benar otonom untuk menjalankan tugas kompleks jangka panjang masih sulit dicapai
    • Hingga 2032: mungkin akan tiba saatnya AI dapat belajar secara alami dan bertahap selama bekerja seperti manusia, lalu setelah beberapa bulan adaptasi kerja dapat menginternalisasi konteks, preferensi, dan know-how setara manusia
      • Meskipun implementasi online continual learning belum terlihat dekat, dalam rentang 7 tahun mungkin saja muncul terobosan mendasar

Faktor pembatas perkembangan AI dan prospek masa depan

  • Waktu terwujudnya AGI memiliki distribusi probabilistik yang sangat lebar (log-normal), dan perkembangan AI selama 10 tahun terakhir sangat terkait dengan peningkatan jumlah komputasi (training compute)
  • Peningkatan komputasi diperkirakan akan mencapai batas setelah 2030, sehingga inovasi algoritmik akan menjadi bottleneck
  • Jika tidak ada pergeseran paradigma yang inovatif, probabilitas kemunculan AGI per tahun bisa menurun seiring waktu
  • Jika taruhan pada skenario ‘lebih lama’ benar, dunia sehari-hari mungkin tidak banyak berubah hingga 2030~2040, tetapi sebaliknya jika batasan AI saat ini teratasi, perubahan yang sangat radikal bisa terjadi

4 komentar

 
mirea0 2025-07-08

Saya pikir AGI tidak akan terwujud karena ada batasan fisik pada keberlanjutan dan pembelajaran.
Itu benar-benar karena ada batasan fisik, bukan karena kemampuan teknologinya kurang.
Saya rasa karena tidak menetapkan batasan seperti itu, jika sampai melangkah lebih jauh sebagai AGI maka akan sulit untuk menariknya kembali, dan para pengembang AI juga mengetahui hal itu, sehingga mereka hanya mengembangkannya agar sesuai untuk layanan, bukan mencoba melepaskan batasan tersebut.

 
iolothebard 2025-07-08

Saya sangat setuju dengan Anda!

 
GN⁺ 2025-07-07
Opini Hacker News
  • “Saya rasa poin yang sangat penting adalah bahwa LLM punya masalah mendasar: seiring waktu, ia tidak membaik secara bertahap seperti manusia. Kemampuan dasar LLM bisa jadi lebih tinggi daripada rata-rata manusia di banyak tugas, tetapi tidak ada cara untuk memberinya umpan balik tingkat tinggi, sehingga ia tidak bisa berkembang melampaui kondisi saat keluar dari kotaknya. Saya melihat ini sebagai batasan yang umum muncul pada jaringan saraf. Sistem seperti Driver milik Waymo menghindari masalah ini. Misalnya, ketika terjadi masalah saat berkendara, Waymo menjalankan berbagai simulasi, memodifikasi situasi bermasalah itu ke dalam banyak bentuk, lalu melatih ulang Driver dengan skenario tersebut. Cara pastinya tidak dipublikasikan, tetapi pernah disebut bahwa strukturnya berbeda dari jaringan saraf end-to-end. Waymo pernah mencoba jaringan saraf end-to-end sebagai proyek internal, tetapi hasilnya lebih buruk daripada sistem saat ini, jadi sekarang mereka memakai sesuatu yang lain, dan hanya sangat sedikit orang yang tahu detailnya.”
    • “Meski LLM tidak berkembang bertahap seperti manusia, yang penting adalah kemampuannya bisa diperluas dengan alat seperti Prolog. Saya pikir tahap berikutnya AI adalah membuat LLM mampu menggunakan alat atau strategi yang lebih baik. Misalnya, arsitektur yang mengintegrasikan aturan logika, algoritme heuristik, dan agen LLM yang di-fine-tune sebagai alat untuk LLM akan makin matang. Perlu juga diperhatikan bahwa tekanan ekonomi terutama mendorong pengembangan AI militer. Dengan memanfaatkan sistem Prolog, LLM bisa menambahkan fakta ke database dan terus belajar sambil menyimpulkan relasi baru. Kita juga bisa memperkenalkan heuristik yang mengusulkan model atau metode baru untuk eksplorasi.”
    • “Setahu saya, Waymo adalah sistem yang dibuat manusia dengan menggabungkan berbagai teknik seperti heuristik, aturan, dan jaringan saraf. Itu bukan jaringan saraf end-to-end sepenuhnya. Istilah AIish terasa pas; secara desain masih jauh dari AGI.”
    • “Saya heran mengapa orang hampir tidak pernah mengajukan pertanyaan seperti ini: bukankah AI mutakhir saat ini sudah membuat manusia jauh lebih unggul? Akselerasi eksponensial dari perbaikan diri justru menurut saya menakutkan. Kalaupun semuanya berjalan sempurna, manusia kemungkinan tidak lagi bisa mempertahankan posisi nomor satu dalam persaingan intelektual, dan itu akan menjadi titik balik yang sulit diterima. Jika benar-benar menginginkan self-improvement, kita perlu membiasakan diri dengan kemungkinan manusia menjadi tidak lagi berguna.”
    • “Kalau penasaran dengan batasan jaringan saraf, ada baiknya menonton kuliah terbaru John Carmack tautan YouTube. Sekitar menit ke-30 dia membahas masalah ini secara langsung.”
    • “Sebagian besar AI dilatih dengan data dalam jumlah raksasa, jadi ada keterbatasan struktural: butuh waktu lama sebelum dataset besar berikutnya siap.”
  • “Orang yang bilang AGI (kecerdasan buatan umum) akan segera hadir biasanya adalah 1. orang yang sedang menjual sesuatu, atau 2. orang yang terlalu larut dalam ceritanya sendiri, atau 3. terlalu bersemangat karena alasan lain, atau 4. kemungkinan besar ketiganya. Secara desain, LLM unggul dalam bahasa dan lumayan dalam merangkum teks, tetapi lemah dalam logika dan sangat lemah dalam penalaran spasial. Karena itu, ia juga tidak pandai menghubungkan konsep. Kalau Anda tanya ke LLM terkenal ‘apa masalah terbuka tersulit yang belum terselesaikan di bidang apa pun’, mungkin yang keluar adalah artikel bergaya majalah sains yang penuh kesalahan halus tapi fatal; jawabannya tampak meyakinkan, tetapi sebenarnya sampah.”
    • “LLM hanyalah alat yang memampatkan dataset pelatihan lalu menyediakan fungsi pencarian interaktif berbasis teks.”
    • “Menurut saya kata kuncinya adalah ‘tidak jelas’. LLM memang cerdas secara umum, jadi menurut standar saya kita sudah masuk era AGI, tetapi tampaknya banyak orang memaknai AGI sebagai ‘AI supermanusia’. Kalau definisinya begitu, kita memang belum sampai ke sana dan mungkin tidak akan mudah mencapainya. Bagi saya, sekarang ini sudah era AGI.”
    • “LLM bekerja sangat baik di dunia teks yang kita ciptakan, tetapi ia bukan entitas yang mengejar kebenaran. Makhluk hidup bisa mati karena kesalahan fatal, sedangkan AI kalau salah hanya akan menghasilkan ribuan token.”
    • “Saya setuju bahwa kurangnya orientasi pada kebenaran adalah masalah LLM, tetapi manusia juga sering begitu, jadi itu tidak terdengar sebagai kritik yang terlalu luar biasa. Jika memakai definisi awal AGI—mampu melakukan hampir semua tugas pada tingkat di atas median manusia—maka saat ini kita sudah cukup dekat, dan dalam 5 tahun ke depan kemungkinan bisa bersaing di tingkat ahli pada pekerjaan non-fisik (untuk pekerjaan fisik mungkin butuh 5–10 tahun). Memang benar LLM kuat dalam bahasa, tetapi menurut saya itu juga mencerminkan tingkat kecerdasan. Penilaian bahwa ia lemah dalam pemikiran spasial juga agak dibesar-besarkan; ia sudah jauh lebih baik daripada model-model penalaran spasial khusus sebelumnya. Meski masih kalah dari manusia, fakta bahwa model terbaru bisa diterapkan ke robot dan benar-benar bekerja saja sudah menunjukkan kemajuan AI yang sangat cepat.”
    • “Definisi AGI versi saya adalah: jika AI lebih baik daripada setidaknya 5% tenaga profesional di bidang tersebut dalam hampir semua tugas, maka itu sudah mencapai AGI. Saya menganggap kemampuan intelektual manusia di persentil 5 terbawah pun tetap layak disebut ‘kecerdasan’, jadi kalau AI lebih unggul dari cukup banyak manusia di seluruh ranah, maka itu harus disebut AGI. AI itu harus lebih baik dalam semua tugas intelektual, bukan hanya satu domain.”
  • “Saya hanya berharap AGI tidak segera muncul. Secara sosial dan politik kita sama sekali belum siap, dan ada risiko besar masa depan umat manusia jatuh ke distopia. Padahal dengan sedikit pengurangan konsumsi daya dan perbaikan kecil saja, AI sekarang sudah sangat berguna di banyak bidang, dan bahkan untuk itu pun masyarakat manusia belum siap sepenuhnya. Masalahnya, perusahaan yang membuat model fondasi tampaknya tidak punya banyak cara yang jelas untuk benar-benar mendapatkan kembali uang yang sudah mereka bakar sejauh ini, sehingga mereka terlihat tidak punya pilihan selain mengejar terobosan besar atau memaksakan AI ke banyak bidang.”
    • “Saya juga merasa begitu, dan sungguh berharap gelembung ini segera pecah. Ada berita bahwa Meta menginvestasikan 100 miliar dolar ke augmented reality, dan si orang yang duduk di dewan itu tampak terus-menerus mengambil tantangan nekat alih-alih sekadar menghemat biaya iklan. Figur seperti Altman juga sekarang sudah memilih jalan tanpa kemungkinan mundur, dan akan berusaha mengambil uang sebanyak mungkin selagi ada kesempatan. Yang bisa kita lakukan hanyalah berharap orang-orang seperti ini gagal seperti pada gelembung dot-com dulu.”
    • “Besarnya investasi AI membuat biaya depresiasi saja bisa lebih besar daripada total pendapatan gabungan semua perusahaan AI, dan banyak orang mengabaikan bagaimana biaya tetap sebesar itu akan dipulihkan.”
    • “Kalau satu AI bisa hampir sepenuhnya menggantikan seluruh industri tanpa banyak pegawai, menurut saya pemulihan biaya akan sangat mudah. Keuntungannya bisa luar biasa besar.”
    • “Kalau Anda benar-benar menganggap masalah angka kelahiran rendah itu serius, AGI yang segera hadir justru bisa menjadi solusi. Kita perlu meninjau ulang paradigma yang mencoba menyelesaikan masalah ekonomi dengan asumsi pertumbuhan populasi tanpa akhir.”
    • “Apakah AGI harus persis sama dengan kecerdasan manusia? Kalau ada fungsi yang unggul dan fungsi lain yang kurang, apakah itu tetap bisa dianggap AGI? Saya penasaran.”
  • “Jangankan akan segera muncul, saya bahkan tidak yakin AGI itu benar-benar bisa diwujudkan. Setidaknya saya rasa sulit dengan hardware komputer tradisional. Kemampuan untuk menyusun ulang informasi agar terlihat rapi menurut saya bukan definisi atau ukuran kecerdasan. Jika kita benar-benar mewujudkan kecerdasan buatan, saat pertama kali diperkenalkan ia mungkin akan sangat rendah menurut standar kecerdasan manusia, tetapi bisa jadi merupakan AI sejati yang mampu belajar sendiri tanpa bantuan eksternal.”
    • “Kecuali seseorang percaya bahwa kecerdasan umum manusia berasal dari unsur supranatural dan tak terukur, menurut saya argumen bahwa AGI mustahil bisa ditolak. Pada akhirnya manusia juga mesin, jadi saya rasa otak bisa direplikasi dengan cara non-biologis. Mungkin AGI pertama adalah otak yang ditumbuhkan di cawan petri dan hanya diberi Python API, atau mungkin berbasis silikon.”
    • “Kita juga harus memikirkan sisi lain. Jika alat menjadi lebih cerdas daripada kecerdasan yang saya miliki, bagaimana saya harus menyikapinya? Di internet, sudah muncul situasi di mana seorang rekan menjawab pertanyaan dengan bantuan chatgpt, dan pertanyaan itu sendiri juga dibuat oleh chatgpt, sehingga tidak ada lagi yang tahu siapa sebenarnya melakukan apa.”
    • “Menurut saya batas perluasan kecerdasan berasal dari sumber daya komputasi. Jumlah komputasi yang dibutuhkan untuk memodelkan sistem dengan baik meningkat hampir secara eksponensial ketika sistemnya makin kompleks atau kacau. Karena itu, efek kecerdasan pada dasarnya hanya bisa muncul pada sistem yang sederhana dan teratur. Cara yang paling praktis dan kokoh adalah menghilangkan sebanyak mungkin faktor yang berubah-ubah. Pada akhirnya, entah itu superintelijen atau bukan, itulah batas nyata dari kecerdasan.”
    • “Saya penasaran kenapa Anda menganggap itu mustahil.”
    • “Belum ada definisi yang jelas atau konsensus tentang AGI. Saya rasa ke depan kita hanya akan terus melihat perbaikan bertahap di bidang yang sudah dikuasai AI—seperti generasi teks, gambar, dan kode. Fantasi bahwa AI akan menyelesaikan semua masalah semua orang lalu umat manusia menikmati kemakmuran utopis di pantai sama sekali tidak berpijak pada kenyataan.”
  • “Perspektif Dwarkesh menurut saya menarik. Saya selalu senang mendengar sejauh mana ia melihat perkembangan ini. Menurut argumen intinya, adaptive learning itu diperlukan, tetapi belum ada tanda-tandanya. Dugaan saya, frontier labs berharap konteks panjang akan menyelesaikan masalah ini. Jika konteks panjang mencapai 10 juta token, model bisa menjaga keadaan internal dengan baik sambil menangani berbagai tugas, tetapi saat ini model berkonteks panjang masih punya keterbatasan berupa variasi kualitas yang besar antar-jendela. Kalau pertanyaannya diubah menjadi: dalam 2 tahun, apakah kita bisa punya jendela konteks berguna lebih dari 10 juta token? Saya rasa kemungkinannya tinggi.”
    • “Ada perusahaan yang pernah mengklaim sudah memecahkan masalah ini, tetapi sekarang yang terdengar hanya keheningan.”
    • “Jika bicara ‘konteks panjang’, pertanyaannya tetap: seberapa panjang? Pada manusia sungguhan, konteksnya adalah input multimodal selama puluhan tahun.”
    • “Saya percaya ketika Demmis mengatakan AGI akan tercapai dalam 10 tahun. Dia sudah lama merintis bidang ini, dan bahkan OpenAI sebagian lahir dari kekhawatiran terhadap kecepatan riset Demmis. Saya mempercayai prediksinya bahwa sekitar 2035 akan muncul AGI yang setara atau lebih unggul dari manusia di hampir semua tugas.”
    • “Saya yakin sebentar lagi (<5 tahun) kita akan mengadopsi test-time learning yang sesungguhnya. Alphaproof (tantangan IMO dari Deepmind) sudah menerapkan teknik ini.”
  • “Ada statistik bahwa 54% orang dewasa di Amerika Serikat secara nasional memiliki kemampuan membaca setara kelas 6 atau lebih rendah. Kadang saya jadi berpikir, bukankah AGI sudah tercapai? tautan Wikipedia
    • “Saya ragu kegagalan pendidikan suatu negara ada hubungannya dengan AGI.”
    • “Poin yang bagus. Kalau begitu saya juga ingin melihat LLM mencuci baju dan mencuci piring. Bahkan jika diberi tubuh robot, itu tetap tidak akan mudah.”
    • “Ini membuat saya bertanya-tanya apakah kemampuan membaca saja sudah cukup sebagai syarat AGI.”
    • “Dari sudut pandang ekonomi, perbandingan yang lebih realistis adalah antara AGI dan pekerja umum, misalnya tenaga untuk tugas tertentu seperti copy editing. Alih-alih memakai rata-rata nasional yang kecil kemungkinan direkrut, kita seharusnya fokus pada kecocokan terhadap pekerjaan.”
    • “Bahkan orang yang buta huruf pun bisa menyelesaikan tantangan yang sangat besar yang tidak bisa dilakukan LLM.”
  • “Dalam diskusi tentang kemajuan AI, masalahnya adalah asumsi bahwa AI masa depan akan menyelesaikan masalah dengan cara yang sama seperti manusia. Dalam kerangka itu, ketiadaan pembelajaran berkelanjutan tampak seperti cacat fatal. Padahal dalam sejarah perkembangan deep learning, continuous learning tidak pernah memainkan peran dominan; dataset besar dan scaling-lah yang paling berhasil. Agar klaim bahwa continuous learning itu wajib menjadi meyakinkan, perlu dijelaskan secara konkret batas pendekatan pembelajaran lintas-tugas dan area yang sama sekali tidak akan bisa dicapai AI. Penulis memang menyinggung ketidakpastian dalam RL flywheel (efek percepatan saat AI pemrograman yang unggul berulang kali menerapkan RL), tetapi secara keseluruhan tulisannya terasa terlalu yakin pada diri sendiri.”
    • “Alphaproof menggunakan pendekatan test-time training ala AlphaZero untuk setiap soal, dengan menghasilkan soal-soal serupa.”
    • “Salah satu alasan continuous learning tidak penting dalam sejarah deep learning mungkin karena para pelakunya menetapkan tujuan yang berbeda. Jika targetnya bukan AI paling cerdas melainkan AI paling berguna dan produktif, maka makhluk yang lebih bodoh tetapi belajar dari kegagalan kadang lebih berharga daripada jenius keras kepala.”
  • “Menurut saya, LLM saat ini adalah struktur yang memprediksi apa yang kemungkinan akan dikatakan manusia, jadi kecerdasan/kemampuan menalarnya juga akan bertahan di tingkat manusia. Luas pengetahuannya bisa melampaui manusia, tetapi kecerdasan atau kreativitasnya mungkin setara atau bahkan di bawah manusia. Perusahaan AI memperkirakan generasi LLM berikutnya akan menghasilkan wawasan baru dan menyelesaikan masalah yang belum terpecahkan, tetapi menurut saya wawasan sejati memerlukan struktur internal yang mampu membangun ulang konsep secara bebas dari prinsip-prinsip yang lebih dasar. LLM punya batas karena tidak bisa menumpuk lapisan pemahaman baru. Jika suatu sistem benar-benar membangun dari input menuju pemahaman abstrak seperti otak manusia, mungkin batas itu bisa dilampaui. Mungkin suatu hari akan muncul paradigma AI baru yang melampaui LLM, tetapi sejujurnya saya berharap tebakan saya salah; ASI (kecerdasan buatan super) agak menakutkan.”
    • “Bahkan jika performa AI setara manusia tercapai, mesin berbeda dari manusia karena cukup meningkatkan performa GPU maka kita bisa langsung mendapatkan kecerdasan buatan yang 10 kali lebih cepat. Kecepatan saja sudah merupakan kemampuan supermanusia, dan satu sistem bahkan bisa dijalankan berkali-kali untuk mengeksplorasi berbagai pendekatan secara paralel lalu memilih opsi terbaik. Untuk tugas yang bisa diverifikasi, itu keunggulan yang sangat besar.”
    • “LLM saat ini bukan sekadar prediktor kalimat manusia sederhana; ia sedang berevolusi ke arah memprediksi token yang berkaitan dengan jawaban benar untuk soal matematika dan pemrograman.”
  • “Sebagian besar diskusinya pesimistis terhadap AI, tetapi penulis justru menyebut peluang mencapai AGI pada awal 2030-an sebesar 50%, dan juga mengatakan kita perlu bersiap terhadap kemungkinan ASI berkembang ke arah yang salah pada 2028. Jadi, sebenarnya penulis cukup optimistis terhadap AI.”
    • “Kalau dalam 3 tahun ASI benar-benar mulai salah arah, menurut saya langkah persiapan apa pun akan menjadi tidak berarti.”
  • “Saya rasa fenomena belakangan ini, di mana tidak ada lagi yang mengungkap ukuran model, sudah bisa dibaca sebagai sinyal bahwa pelatihan model menabrak batas (tembok).”
 
kandk 2026-02-17

Masih itu-itu lagi.