- Dalam Piagam (Charter) OpenAI tahun 2018, perusahaan menyatakan ‘klausul pengorbanan diri’ bahwa “jika proyek lain yang berfokus pada keselamatan mendekati AGI, kami akan berhenti bersaing dan memilih bekerja sama”
- Menurut tabel yang merangkum pernyataan Sam Altman, perkiraan waktu tercapainya AGI dipangkas drastis dari 2033 menjadi 2025, dan belakangan bahkan muncul pernyataan bahwa “AGI sudah dibuat”
- Di papan peringkat model Arena.ai, Claude dari Anthropic dan Gemini dari Google menempati posisi atas, sementara GPT-5.4 milik OpenAI tertinggal di peringkat 6
- Tulisan ini menyoroti bahwa situasi tersebut memenuhi syarat dalam piagam: “bekerja sama jika muncul pesaing dengan peluang keberhasilan lebih dari setengah dalam 2 tahun”
- Akibatnya, OpenAI seharusnya menghentikan persaingan dan berkolaborasi sesuai piagam, tetapi pada kenyataannya ini ditampilkan sebagai contoh benturan antara idealisme dan insentif ekonomi
Klausul pengorbanan diri dalam piagam OpenAI
- Piagam OpenAI tahun 2018 memuat kekhawatiran bahwa persaingan pengembangan AGI dapat membahayakan keselamatan
- Tercantum kalimat bahwa “jika ada proyek yang menekankan penyelarasan nilai dan keselamatan lalu mendekati AGI, kami akan berhenti bersaing dan mendukungnya”
- Kondisi pemicu yang disebut sebagai tipikal adalah saat “peluang sukses dalam 2 tahun melebihi setengah”
- Klausul ini masih dipublikasikan di situs resmi (openai.com/charter) dan tetap menjadi kebijakan resmi perusahaan
Perubahan prediksi AGI Sam Altman
- Menurut tabel tersebut, sejak 2023 hingga 2026 Altman terus memajukan perkiraan waktu tercapainya AGI
- Pada Mei 2023 ia mengatakan “melampaui tingkat pakar dalam 10 tahun”, tetapi
- pada 2024~2025 pernyataannya berkembang menjadi “AGI tercapai pada 2025” hingga “kami sudah membuat AGI”
- Median prediksi setelah 2025 adalah sekitar dalam 2 tahun, selaras dengan syarat pemicu dalam piagam
- Dalam beberapa wawancara juga muncul ungkapan bahwa mereka “bergerak melampaui AGI menuju ASI (superintelligence)”
Perbandingan peringkat model Arena.ai
- Di antara 10 model teratas pada leaderboard Arena.ai, Claude-opus-4-6 dari Anthropic berada di peringkat 1, dan Gemini 3.1 dari Google di peringkat 3
- GPT-5.4-high dari OpenAI berada di peringkat 6, dengan penilaian lebih rendah dibanding model pesaing
- Tulisan tersebut menyebut model Anthropic dan Google sebagai ‘berpusat pada keselamatan dan selaras dengan nilai’, serta menganggapnya sebagai alternatif yang kompatibel terhadap GPT
Apakah syarat penghentian persaingan sudah terpenuhi?
- Dengan waktu pengembangan AGI yang menyempit menjadi dalam 2 tahun, dan model pesaing berada di depan, situasi ini dinilai memenuhi syarat piagam untuk “menghentikan persaingan dan bekerja sama”
- Ada perdebatan apakah Arena.ai tepat untuk mengukur AGI, tetapi semangat piagamnya adalah ‘menghindari perlombaan senjata’
- Karena itu, kesimpulannya adalah OpenAI seharusnya bekerja sama dengan Anthropic dan Google
Jarak antara idealisme dan realitas
- Tulisan ini secara eksplisit menyatakan bahwa kecil kemungkinan OpenAI benar-benar menghentikan persaingan
- Kasus ini menunjukkan realitas bahwa prinsip idealistis menjadi tak berdaya di hadapan insentif ekonomi
- Tulisan ini juga menyoroti bahwa definisi AGI dan target waktunya terus bergeser, dan belakangan fokus diskusi telah berpindah ke ASI
1 komentar
Komentar Hacker News
Semua orang di thread ini cuma berdebat soal definisi.
Yang benar-benar penting adalah titik ekonominya — kapan tepatnya kita beralih dari otomatisasi yang dibantu manusia ke output yang sepenuhnya otonom dari AI.
Jika melihat lingkungan produksi AI saat ini, manusia masih menangani peninjauan, revisi, dan pengawasan. AI menangani kuantitas, manusia menangani penilaian. Pada akhirnya, penilaian adalah bottleneck.
Ini bukan menggantikan tenaga kerja, hanya memindahkannya. Kompensasi tenaga kerja global bernilai sekitar $50 triliun per tahun, dan pasar modal sedang bertaruh apakah AI bisa benar-benar menyerap sebagian dari itu. Label AGI tidak penting — modal tidak peduli pada definisi, melainkan pada apakah tenaga kerja dan output bisa dipisahkan.
Setiap kali melihat istilah seperti “AGI” atau “ASI”, saya membacanya sebagai “sesuatu yang tak seorang pun bisa definisikan dengan benar”.
Artinya, konsep yang definisinya begitu tidak lengkap sehingga kita tak bisa menarik kesimpulan apa pun. Jadi saya menggantinya saja dengan bunyi seperti “skiptiboop”.
Jika AGI didefinisikan sebagai “AI serbaguna, bukan untuk tugas spesifik”, maka itu sudah ada.
Jika artinya “kecerdasan setingkat manusia dalam semua tugas”, maka sebagian manusia sendiri bukan AGI.
Jika artinya “algoritma ajaib yang melakukan segalanya dengan sempurna”, maka mungkin itu tidak ada.
Saat istilah AGI pertama kali muncul, maksudnya mungkin sesuatu seperti HAL 9000, tetapi sekarang ini sudah menjadi permainan target yang terus bergeser.
Begitu mereka all-in pada komersialisasi teknologi, hasil akhirnya sebenarnya sudah bisa ditebak.
LLM saat ini sudah digunakan dengan cara yang berbahaya, dan jika berita seperti ini terus mendapat sorotan, OpenAI akan diam-diam menghapus piagam itu dari situs webnya.
Model saat ini masih jauh dari AGI.
Prediksi token berikutnya memang berkembang sangat impresif, tetapi tetap belum memiliki model dunia nyata ataupun kemampuan belajar yang sesungguhnya.
Tanpa pengawasan manusia, batasannya sangat jelas.
Ada yang menyebut ini sebagai “ketidakberdayaan idealisme naif”, tetapi menurut saya yang lebih tepat adalah bahasa idealisme dipinjam sebagai alat pemasaran.
Pada praktiknya, ini adalah organisasi yang berorientasi laba dan semakin lama semakin menunjukkan wajah aslinya.
AGI tidak akan datang dalam 30 tahun ke depan.
Para peneliti juga mengatakan begitu.
AGI yang sesungguhnya membutuhkan pembelajaran berkelanjutan dan memori mendalam, dan LLM tidak bisa melakukan itu.
“Memori” saat ini hanyalah fungsi pencarian dan ringkasan — seperti satu orang mendengarkan kuliah fisika, menulis semuanya di post-it, lalu orang lain menelusurinya dan menulis jawaban.
RL dan retraining memang diperlukan, tetapi itu terlalu mahal, lambat, dan rumit.
LLM bisa menulis kode yang keren, tetapi bahkan ketika diberi tahu “jangan hapus file di folder X”, pada akhirnya tetap menghapusnya.
Ia juga mengikuti begitu saja perintah yang disisipkan penyerang ke dalam dokumen.
Tanpa memori sejati dan RL real-time, masalah seperti ini tidak akan terselesaikan.
Melihat tweet Daniel Kokotajlo, pernyataan Karpathy, dan survei peneliti AI, ada banyak prediksi yang jauh lebih cepat.
Dalam percakapan mereka tampak cerdas, tetapi begitu sesi berakhir, semuanya hilang.
Bahkan selama sesi pun performanya menurun — konteks yang panjang justru menjadi racun.
Pada akhirnya, keterbatasannya adalah ketiadaan struktur memori. Manusia menyelesaikan ini lewat memori jangka panjang dan tidur, tetapi LLM tidak.
Sebrilian apa pun, jenius tanpa memori hanyalah savant jangka pendek.
LLM dapat langsung menyalin dan menyusun ulang ribuan halaman.
RL saat waktu inferensi dan pembelajaran berkelanjutan berbasis LoRA sudah berjalan, dan menurut sebagian definisi, AGI bahkan sudah tercapai.
Hanya saja, belum ekonomis.
Dan alih-alih pekerjaan programmer menghilang, justru akan semakin dibutuhkan orang dengan kemampuan berpikir komputasional.
Ini pengalaman pribadi, tetapi belakangan GPT 5.4 terasa lebih baik daripada Opus 4.6.
Namun menariknya, di papan peringkat Chatbot Arena justru posisinya lebih rendah.
Karena berbasis voting pengguna umum, validasi keahliannya lemah, dan perusahaan besar juga kerap memanipulasi peringkat.
Untuk membandingkan model-model terbaru, nilainya tidak terlalu besar.
Dengan prompt yang sama, GPT 5.4 membuat refactor yang tidak perlu dan bug, sementara Opus 4.6 mengenali fitur yang sudah diimplementasikan dan menyarankan pengujian serta pembaruan dokumentasi.
Saya rasa Opus 4.6 masih agen coding terbaik.
Prediksi “September 2026 ada AI research intern otomatis, Maret 2028 ada peneliti AI penuh” menarik.
Ini juga sejalan dengan momen ketika proyek Autoresearch milik Karpathy naik ke puncak HN.
Mungkin lab besar sudah menguji versi berskala jauh lebih besar dari itu.
Saya setuju dengan “ketidakberdayaan idealisme naif” dan garis target AGI yang terus berubah.
Sekarang banyak orang berbicara tentang ASI alih-alih AGI, memberi nuansa bahwa mungkin AGI sudah tercapai.
Kedengarannya seperti lelucon, tetapi tak seorang pun benar-benar dekat dengan AGI.
Altman sendiri mengakui bahwa untuk mencapai AGI dibutuhkan beberapa terobosan tahap menengah.
Ia memprediksi bahwa sekitar 2026, AI akan melampaui sekadar menggabungkan ulang informasi yang ada dan mulai menghasilkan wawasan baru, dan itulah yang saya anggap sebagai ambang AGI.
Saya rasa LLM saat ini secara rata-rata lebih kompeten daripada manusia rata-rata.