5 poin oleh GN⁺ 2025-08-08 | Belum ada komentar. | Bagikan ke WhatsApp
  • OpenAI telah merilis model bahasa besar sumber terbuka pertama gpt-oss-120b dan gpt-oss-20b, dan meski unggul pada beberapa benchmark, memiliki keterbatasan dalam aplikasi nyata.
  • Model-model ini dianggap memiliki pengetahuan umum, tetapi kekurangan pengetahuan di bidang tertentu seperti budaya pop.
  • Seperti seri Phi milik Microsoft, pendekatan pelatihan yang berfokus pada data sintetis meningkatkan performa benchmark tetapi cenderung menurunkan kegunaan praktis.
  • Pelatihan berbasis data sintetis memiliki keunggulan meningkatkan keamanan, sehingga mengurangi risiko penyalahgunaan yang mungkin muncul saat model dirilis sebagai sumber terbuka.
  • Tampaknya OpenAI memilih pendekatan bergaya Phi agar tetap unggul di benchmark dibanding model sumber terbuka dari Tiongkok sekaligus menjaga keamanan.

Rilis LLM sumber terbuka pertama OpenAI

  • OpenAI mengumumkan gpt-oss-120b dan gpt-oss-20b sebagai model bahasa besar sumber terbuka pertama mereka dan kini dapat didialogkan secara langsung dari web.
  • Mereka menunjukkan performa yang baik di beberapa benchmark, tetapi kinerjanya menurun pada tes tertentu seperti SimpleQA.
  • Mereka dinilai kaya akan pengetahuan umum di bidang seperti ilmu pengetahuan, tetapi kurang di budaya populer.
  • Kegunaan praktisnya diperkirakan akan menjadi jelas sekitar enam bulan ke depan, dengan kemungkinan besar performa dunia nyata lebih rendah dibanding benchmark.

Phi dan pelatihan data sintetis

  • Pada 2024, seri Phi yang dipimpin oleh Sebastien Bubeck dari Microsoft merupakan model yang dilatih sepenuhnya dengan data sintetis.
  • Data sintetis berupa teks berbasis materi ajar yang dihasilkan oleh model bahasa lain atau diseleksi manusia, yang memudahkan kontrol kualitas namun cukup mahal untuk diproduksi.
  • Pendekatan ini meningkatkan performa benchmark, tetapi cenderung menghasilkan hasil di bawah harapan di lingkungan nyata.
  • Karena data sintetis dapat dibuat dengan mudah sesuai jenis soal benchmark, ia memungkinkan pembelajaran berorientasi ujian, tetapi mengurangi kemampuan generalisasi.

Sebastien Bubeck bergabung ke OpenAI dan gpt-oss

  • Pada akhir 2024, Bubeck berpindah dari Microsoft ke OpenAI.
  • Rincian detail data pra-latihan model gpt-oss belum diungkapkan, tetapi kemungkinan besar mereka menggunakan data yang sangat disaring atau disintesis.
  • Pendekatan ini dapat menghasilkan karakteristik yang mirip dengan Phi-5 dan Phi-5-mini.

Keunggulan keamanan data sintetis

  • Model sumber terbuka dapat di-fine-tuning tanpa batas setelah dirilis, sehingga potensi masalah keamanan dapat muncul.
  • Selain itu, salah satu penggunaan tidak resmi utama model bahasa skala kecil adalah roleplay dewasa, sehingga pengelolaan keamanan menjadi penting.
  • Pelatihan dengan data sintetis atau data berbasis materi ajar dapat meningkatkan keamanan karena tidak termasuk konten berbahaya.
  • OpenAI tampaknya memilih strategi untuk mempertahankan keunggulan benchmark dibanding model sumber terbuka dari Tiongkok sambil tetap menjaga keamanan.

Kesimpulan: Nyaris seri Phi-5

  • Model gpt-oss diperkirakan dirancang dengan pendekatan keamanan berbasis data sintetis, yang memprioritaskan skor benchmark dan keamanan dibanding performa praktis.
  • Pada akhirnya, model-model ini pada dasarnya memiliki karakter serupa dengan Phi-5 dan Phi-5-mini.

Belum ada komentar.

Belum ada komentar.