- OpenAI mengumumkan bahwa mereka semula berencana merilis model open weight minggu depan, tetapi menundanya untuk pengujian keamanan tambahan dan peninjauan area berisiko tinggi
- Sam Altman menyatakan bahwa ia "belum bisa memastikan secara pasti berapa lama waktu yang dibutuhkan"
- Ia menjelaskan bahwa diperlukan pendekatan yang hati-hati karena setelah weights model dirilis, tidak bisa ditarik kembali
- OpenAI menekankan bahwa mereka percaya komunitas akan menciptakan berbagai inovasi melalui model tersebut, tetapi karena pendekatan ini merupakan yang pertama bagi OpenAI, mereka ingin menjalankan prosedurnya dengan benar
- Terakhir, ia kembali menegaskan kehati-hatian disertai permintaan maaf yang tulus, dengan mengatakan, "Maaf ini bukan kabar baik. Kami benar-benar bekerja sangat keras"
2 komentar
Kena tipu lagi~
Komentar Hacker News
Membagikan tautan https://nitter.space/sama/status/1943837550369812814
Saya tidak yakin apakah kebetulan atau tidak bahwa peluncuran model open-weight OpenAI tiba-tiba ditunda tepat setelah muncul model open-weight yang sangat kuat seperti Kimi K2 yang diumumkan hari ini
Tautan pengenalan Kimi K2
Saat OpenAI merilisnya, mereka perlu menaikkan standar industri satu tingkat lagi
Saya rasa model dengan bobot terbuka yang kualitasnya biasa-biasa saja tidak akan cukup
xAI sudah cukup jauh di depan dalam mengumpulkan daya komputasi dan juga membuka jarak besar dalam uji kecerdasan seperti ARC dan HLE
Yang dikejar OpenAI bukan persaingan open source, melainkan kemenangan dalam kompetisi
Menurut saya ini berita yang cukup besar
Saya menganggap penyebutan "pengujian keamanan" untuk LLM sebagai jargon pemasaran
Mobil, pesawat, dan lift menjalani pengujian keamanan sungguhan, tetapi LLM berbeda
Walaupun hasil yang dibuat LLM tidak disukai pembuatnya, tidak ada yang langsung mati karenanya
"Pengujian keamanan" yang mereka maksud pada akhirnya cuma memeriksa sejauh mana LLM mengatakan hal-hal yang mereka tidak sukai
Bisa juga mendorong krisis kesehatan mental ke arah bunuh diri, atau secara ekstrem menyampaikan argumen yang meyakinkan bahwa ras atau kelompok tertentu adalah sumber masalah dan harus disingkirkan
Kata-kata memang tidak bisa membunuh secara langsung, tetapi jelas ada kasus di mana kata-kata menuntun pada kematian
Di luar kemungkinan seperti itu, juga ada risiko yang terkait dengan penggunaan alat
Saya rasa pada level teknologi saat ini, membuatnya benar-benar aman itu tidak mungkin
Hobi saya adalah mengubah sinisme menjadi uang
Saya masuk ke Polymarket, mencari peristiwa tentang masyarakat dan teknologi yang akan membuat saya senang dan optimistis, lalu memasang taruhan kecil dengan shitcoin bahwa itu tidak akan terjadi
Misalnya, ada taruhan tentang apakah OpenAI akan merilis model bobot open source sebelum September, dan sekarang diperdagangkan di 81%
Bulan lalu OpenAI juga tidak merilis apa-apa, gencatan senjata ternyata bukan benar-benar gencatan senjata, dan indikator iklim memburuk, jadi saya mendapat untung sekitar 10 dolar
Saya tidak bisa sepenuhnya melakukan hedge terhadap keputusasaan eksistensial, tapi setidaknya bisa sedikit mengurangi rasa sakitnya
Kalau saya menang, saya dapat uang (untung), kalau kalah berarti sesuatu yang baik terjadi pada masyarakat (untung)
Setiap kali ada hal yang menyedihkan secara politik, dia menghasilkan beberapa ratus dolar
Setelah ledakan AI, saya kira kripto sudah selesai
Jika butuh bantuan, hubungi pusat konseling judi atau konsultasikan dengan dokter"
Saya lebih percaya pada Deepseek dan Qwen (Alibaba) daripada perusahaan AI Amerika
Industri AI Amerika memberi kesan hanya melahap uang dan sumber daya komputasi
Miliaran dolar dihabiskan, tapi rasanya tidak banyak yang bisa ditunjukkan
Deepseek dikembangkan hanya dengan 5 juta dolar, dan memperkenalkan beberapa metode pelatihan baru
Selain itu, model dan kodenya sama-sama dirilis sebagai FLOSS
Perusahaan-perusahaan Amerika semuanya tertutup
Perusahaan AI Amerika terlihat seperti burung nasar yang saling berusaha membunuh
Ada yang bilang itu salah paham, ada juga yang bilang itu misinformasi yang disebarkan dengan sengaja
Bahkan jika itu bukan niat buruk, dari sudut pandang orang yang pernah melatih model besar, saya ingin bilang bahwa membahas total biaya hanya dari biaya satu kali training itu tidak berarti
Biaya untuk eksperimen yang gagal, pelatihan tambahan, dan banyak percobaan lainnya juga sangat besar
Fakta bahwa R2 belum juga keluar setelah 6 bulan menurut saya cukup bermakna
Kadang memang ada hasil yang keren, tetapi tidak ada yang memperhatikan biaya dari kegagalan
Sebagai orang yang bekerja di industri AI, saya sudah banyak membaca paper riset Google, dan saya berterima kasih atas kontribusinya yang besar pada kemajuan industri serta karena merilis model dengan lisensi komersial
Mungkin karena hasilnya lebih buruk daripada model K2 yang diumumkan hari ini
Insinyur yang benar-benar kompeten tidak akan mengatakan itu karena "keamanan"
Dengan metode seperti ablation, pelatihan keamanan pasca-proses pun bisa dilumpuhkan
K2 punya 1 triliun parameter dan ukuran unduhnya saja hampir 1TB
Mustahil dijalankan di laptop saya
Saya rasa ukuran yang pas untuk model lokal itu sekitar 20B
Contohnya Mistral Small 3.x atau beberapa model Gemma 3
Keduanya berjalan baik di RAM 32GB ke bawah dan performanya bagus
Saya sungguh berharap OpenAI merilis sesuatu di kisaran ukuran itu
Perlu diingat bahwa, seperti terlihat dari contoh fine-tuning tanpa sensor pada model Llama, pembatasan keamanan bisa dihapus dengan mudah
Pada praktiknya ini tidak lebih dari sandiwara keamanan yang nyaris tak ada gunanya untuk konsumsi publik
Komunitas sudah sejak lama tahu cara melepas semua guardrail itu dengan mudah
Ungkapan "ini juga hal baru bagi kami" terdengar tidak seperti perusahaan itu
Saya benar-benar penasaran kenapa OpenAI ingin merilis model bobot publik