1 poin oleh GN⁺ 2025-11-15 | Belum ada komentar. | Bagikan ke WhatsApp
  • Di Silicon Valley, budaya yang meyakini AGI (kecerdasan umum buatan) sebagai tujuan yang dapat diwujudkan semakin meluas
  • Di dalam OpenAI, terbentuk keyakinan berbasis 'hipotesis bahasa murni', bahwa perluasan model bahasa dapat mengarah ke AGI
  • Keyakinan ini menjadi dasar pembenaran bagi ekspansi pusat data berskala masif serta masalah eksploitasi lingkungan dan tenaga kerja
  • Logika nilai harapan (Expected Value) untuk AGI bergantung pada perkiraan probabilitas dan nilai yang tidak berdasar, sambil mengabaikan kerusakan lingkungan nyata dan biaya sosial
  • Dengan meninggalkan fantasi AGI, dibutuhkan pendekatan rekayasa yang praktis untuk menyelesaikan masalah dengan model kecil yang berorientasi tujuan

Keyakinan terhadap AGI dan budaya OpenAI

  • Orang-orang yang terkait dengan OpenAI benar-benar percaya bahwa AGI dapat membawa kemakmuran atau kehancuran bagi umat manusia
    • Elon Musk menggambarkan Demis Hassabis sebagai “penjahat yang ingin menguasai dunia”, menetapkan OpenAI sebagai “pihak baik” dan DeepMind sebagai “pihak jahat”
    • Ilya Sutskever mengatakan kepada para karyawan, “Rasakan AGI (Feel the AGI)”, dan mengadakan ritual membakar boneka kayu yang melambangkan AGI
  • Tindakan-tindakan ini menunjukkan bahwa imajinasi fiksi ilmiah telah menjadi keyakinan arus utama di Silicon Valley

'Hipotesis bahasa murni' dan ekspansi LLM

  • Menurut buku Karen Hao Empire of AI, GPT-2 didasarkan pada 'hipotesis bahasa murni (pure language hypothesis)'
    • Karena manusia berpikir dan berkomunikasi melalui bahasa, diasumsikan bahwa AGI dapat dicapai hanya dengan data bahasa
    • Sebaliknya, 'hipotesis grounding (grounding hypothesis)' berpendapat bahwa AGI harus mampu mengenali dunia
  • Keberhasilan ekspansi dari GPT ke GPT-2 memperkuat keyakinan di dalam OpenAI bahwa dengan lebih banyak data, parameter model, dan sumber daya komputasi, AGI dapat dicapai

Perlombaan ekspansi dan masalah lingkungan serta tenaga kerja

  • Keyakinan terhadap AGI dan capaian LLM membenarkan pembangunan pusat data skala besar
    • Beberapa fasilitas menggunakan ratusan liter air per detik dan mengoperasikan generator gas yang mencemari karena kekurangan listrik
    • Hal ini memicu konsumsi listrik setingkat seluruh kota dan peningkatan emisi CO₂
  • Untuk menghasilkan keluaran ChatGPT yang aman, para pekerja yang melakukan penyensoran dan pemurnian data mengalami eksploitasi dan trauma mental
    • Seiring meningkatnya kebutuhan data, mereka mengumpulkan seluruh internet tanpa pandang bulu dan mengendalikan hasil dengan RLHF (Reinforcement Learning from Human Feedback)

Masalah logika nilai harapan

  • Nilai harapan (Expected Value) sering dikutip sebagai dasar pembenaran pengembangan AGI
    • Logikanya adalah, “bahkan jika peluangnya 0,001% untuk menghasilkan nilai yang luar biasa besar, EV tetap sangat besar”
  • Namun, perhitungan semacam ini bergantung pada probabilitas dan nilai yang arbitrer serta tidak dapat diverifikasi
    • Sebaliknya, kerusakan lingkungan dan biaya sosial hadir sebagai nilai negatif yang pasti dan kerugian yang nyata saat ini

Beralih ke rekayasa nyata

  • Insinyur harus menyelesaikan masalah secara efektif, efisien, dan tanpa menimbulkan bahaya
  • Pendekatan yang menganggap LLM sebagai AGI gagal pada ketiga kriteria tersebut
    • Terjadi pemborosan komputasi berlebihan, eksploitasi tenaga kerja, dan kerusakan lingkungan
  • Dengan melepaskan diri dari fantasi AGI, LLM dan model generatif harus dievaluasi sebagai alat untuk menyelesaikan masalah tertentu
    • Memanfaatkan model generatif kecil yang berorientasi tujuan atau model non-generatif (diskriminatif)
    • Diperlukan pelaksanaan rekayasa yang praktis melalui analisis biaya-manfaat dan trade-off teknis

Belum ada komentar.

Belum ada komentar.