1 poin oleh GN⁺ 2025-07-13 | 2 komentar | Bagikan ke WhatsApp
  • OpenAI mengumumkan bahwa mereka semula berencana merilis model open weight minggu depan, tetapi menundanya untuk pengujian keamanan tambahan dan peninjauan area berisiko tinggi
  • Sam Altman menyatakan bahwa ia "belum bisa memastikan secara pasti berapa lama waktu yang dibutuhkan"
  • Ia menjelaskan bahwa diperlukan pendekatan yang hati-hati karena setelah weights model dirilis, tidak bisa ditarik kembali
  • OpenAI menekankan bahwa mereka percaya komunitas akan menciptakan berbagai inovasi melalui model tersebut, tetapi karena pendekatan ini merupakan yang pertama bagi OpenAI, mereka ingin menjalankan prosedurnya dengan benar
  • Terakhir, ia kembali menegaskan kehati-hatian disertai permintaan maaf yang tulus, dengan mengatakan, "Maaf ini bukan kabar baik. Kami benar-benar bekerja sangat keras"

2 komentar

 
ng0301 2025-07-13

Kena tipu lagi~

 
GN⁺ 2025-07-13
Komentar Hacker News
  • Membagikan tautan https://nitter.space/sama/status/1943837550369812814

  • Saya tidak yakin apakah kebetulan atau tidak bahwa peluncuran model open-weight OpenAI tiba-tiba ditunda tepat setelah muncul model open-weight yang sangat kuat seperti Kimi K2 yang diumumkan hari ini
    Tautan pengenalan Kimi K2
    Saat OpenAI merilisnya, mereka perlu menaikkan standar industri satu tingkat lagi
    Saya rasa model dengan bobot terbuka yang kualitasnya biasa-biasa saja tidak akan cukup

    • Saya melihat OpenAI saat ini sedang memusatkan semua sumber dayanya untuk melampaui Grok 4
      xAI sudah cukup jauh di depan dalam mengumpulkan daya komputasi dan juga membuka jarak besar dalam uji kecerdasan seperti ARC dan HLE
      Yang dikejar OpenAI bukan persaingan open source, melainkan kemenangan dalam kompetisi
    • Tapi saya penasaran kenapa hampir tidak ada diskusi tentang K2 di Hacker News
      Menurut saya ini berita yang cukup besar
    • Terutama karena belakangan ini OpenAI memberi sinyal akan merilis model open source terbaik, rasanya timing-nya terlalu pas
    • Sejak GPT-4, saya merasa semua model OpenAI tertinggal jauh dari arah pasar
  • Saya menganggap penyebutan "pengujian keamanan" untuk LLM sebagai jargon pemasaran
    Mobil, pesawat, dan lift menjalani pengujian keamanan sungguhan, tetapi LLM berbeda
    Walaupun hasil yang dibuat LLM tidak disukai pembuatnya, tidak ada yang langsung mati karenanya
    "Pengujian keamanan" yang mereka maksud pada akhirnya cuma memeriksa sejauh mana LLM mengatakan hal-hal yang mereka tidak sukai

    • LLM bisa dengan mudah mengarahkan seseorang untuk meminum obat yang berinteraksi buruk
      Bisa juga mendorong krisis kesehatan mental ke arah bunuh diri, atau secara ekstrem menyampaikan argumen yang meyakinkan bahwa ras atau kelompok tertentu adalah sumber masalah dan harus disingkirkan
      Kata-kata memang tidak bisa membunuh secara langsung, tetapi jelas ada kasus di mana kata-kata menuntun pada kematian
      Di luar kemungkinan seperti itu, juga ada risiko yang terkait dengan penggunaan alat
    • Dalam konteks ini, "keamanan" sering kali pada akhirnya berarti mencegah ucapan yang bisa menyinggung seseorang atau menjadi isu PR
    • Saya juga menganggapnya pemasaran, tetapi justru karena alasan yang berlawanan
      Saya rasa pada level teknologi saat ini, membuatnya benar-benar aman itu tidak mungkin
    • Ini soal keamanan penyedia LLM, bukan keamanan pengguna
  • Hobi saya adalah mengubah sinisme menjadi uang
    Saya masuk ke Polymarket, mencari peristiwa tentang masyarakat dan teknologi yang akan membuat saya senang dan optimistis, lalu memasang taruhan kecil dengan shitcoin bahwa itu tidak akan terjadi
    Misalnya, ada taruhan tentang apakah OpenAI akan merilis model bobot open source sebelum September, dan sekarang diperdagangkan di 81%
    Bulan lalu OpenAI juga tidak merilis apa-apa, gencatan senjata ternyata bukan benar-benar gencatan senjata, dan indikator iklim memburuk, jadi saya mendapat untung sekitar 10 dolar
    Saya tidak bisa sepenuhnya melakukan hedge terhadap keputusasaan eksistensial, tapi setidaknya bisa sedikit mengurangi rasa sakitnya

    • Dengan bertaruh seperti ini, strukturnya membuat saya selalu menang
      Kalau saya menang, saya dapat uang (untung), kalau kalah berarti sesuatu yang baik terjadi pada masyarakat (untung)
    • Teman saya juga menyebut ini "hedging terhadap umat manusia"
      Setiap kali ada hal yang menyedihkan secara politik, dia menghasilkan beberapa ratus dolar
    • Saya heran masih ada orang yang memakai mata uang kripto
      Setelah ledakan AI, saya kira kripto sudah selesai
    • "Judi itu adiktif, jadi lakukan dengan bertanggung jawab dan hanya untuk usia 18 tahun ke atas
      Jika butuh bantuan, hubungi pusat konseling judi atau konsultasikan dengan dokter"
  • Saya lebih percaya pada Deepseek dan Qwen (Alibaba) daripada perusahaan AI Amerika
    Industri AI Amerika memberi kesan hanya melahap uang dan sumber daya komputasi
    Miliaran dolar dihabiskan, tapi rasanya tidak banyak yang bisa ditunjukkan
    Deepseek dikembangkan hanya dengan 5 juta dolar, dan memperkenalkan beberapa metode pelatihan baru
    Selain itu, model dan kodenya sama-sama dirilis sebagai FLOSS
    Perusahaan-perusahaan Amerika semuanya tertutup
    Perusahaan AI Amerika terlihat seperti burung nasar yang saling berusaha membunuh

    • Ada banyak kontroversi soal biaya pengembangan Deepseek yang disebut 5 juta dolar
      Ada yang bilang itu salah paham, ada juga yang bilang itu misinformasi yang disebarkan dengan sengaja
      Bahkan jika itu bukan niat buruk, dari sudut pandang orang yang pernah melatih model besar, saya ingin bilang bahwa membahas total biaya hanya dari biaya satu kali training itu tidak berarti
      Biaya untuk eksperimen yang gagal, pelatihan tambahan, dan banyak percobaan lainnya juga sangat besar
      Fakta bahwa R2 belum juga keluar setelah 6 bulan menurut saya cukup bermakna
      Kadang memang ada hasil yang keren, tetapi tidak ada yang memperhatikan biaya dari kegagalan
    • Sebenarnya mayoritas model Google adalah open source
      Sebagai orang yang bekerja di industri AI, saya sudah banyak membaca paper riset Google, dan saya berterima kasih atas kontribusinya yang besar pada kemajuan industri serta karena merilis model dengan lisensi komersial
    • 5 juta dolar itu adalah biaya waktu untuk satu kali training GPU
    • Anda bilang perusahaan AI Amerika hanya memakan uang dan komputasi, tapi sebenarnya mereka juga benar-benar memakan buku secara harfiah
    • Bukankah angka biaya itu sebenarnya hanya mencerminkan harga GPU?
  • Mungkin karena hasilnya lebih buruk daripada model K2 yang diumumkan hari ini
    Insinyur yang benar-benar kompeten tidak akan mengatakan itu karena "keamanan"
    Dengan metode seperti ablation, pelatihan keamanan pasca-proses pun bisa dilumpuhkan

    • Secara pribadi saya berharap model bobot terbuka yang akan dirilis OpenAI jauh lebih kecil daripada K2
      K2 punya 1 triliun parameter dan ukuran unduhnya saja hampir 1TB
      Mustahil dijalankan di laptop saya
      Saya rasa ukuran yang pas untuk model lokal itu sekitar 20B
      Contohnya Mistral Small 3.x atau beberapa model Gemma 3
      Keduanya berjalan baik di RAM 32GB ke bawah dan performanya bagus
      Saya sungguh berharap OpenAI merilis sesuatu di kisaran ukuran itu
  • Perlu diingat bahwa, seperti terlihat dari contoh fine-tuning tanpa sensor pada model Llama, pembatasan keamanan bisa dihapus dengan mudah

  • Pada praktiknya ini tidak lebih dari sandiwara keamanan yang nyaris tak ada gunanya untuk konsumsi publik
    Komunitas sudah sejak lama tahu cara melepas semua guardrail itu dengan mudah

    • Setiap kali melihat klaim seperti ini, saya langsung teringat bahwa "Open"AI dulu menolak merilis GPT2 XL dengan alasan "terlalu kuat"
  • Ungkapan "ini juga hal baru bagi kami" terdengar tidak seperti perusahaan itu

  • Saya benar-benar penasaran kenapa OpenAI ingin merilis model bobot publik