Saya sudah mencoba keduanya dan menurut saya justru kebalikannya, tapi mungkin bukan begitu ya.
Saat saya memakainya, Codex cukup sering mengabaikan instruksi.
Akhir-akhir ini juga terasa seperti berubah karena Anthropic menurunkan performa Opus 4.6.
Katanya teknologi untuk menemukan kerentanan keamanan juga sudah berkembang pesat
Karena ketika kerentanan itu ditemukan, kebutuhan akan cara untuk mengamankannya juga ikut muncul
Jadi tampaknya metode keamanan juga akan ikut disempurnakan.
Saya sempat merasa familiar dengan OpenBMB, ternyata itu tempat yang membuat model MiniCPM-o.
Model MiniCPM-o adalah model omni seperti GPT 4o, dan performanya cukup bagus.
Karena disebut mesh, saya sempat mengira ini mirip Tailscale, tapi ternyata sedikit berbeda.
Ini bukan model P2P seperti Tailscale, melainkan arsitektur yang melewati jaringan edge CF, jadi
kebijakan Gateway atau fitur keamanan seperti DLP diterapkan otomatis,
dan dari Workers/Agents SDK, layanan privat bisa dipanggil hanya dengan satu baris fetch(). Itulah pembeda utamanya.
Saya sih tetap pakai Tailscale saja..
Karena kualitas aplikasi desktop codex bagus, saya sempat hanya memakai Codex selama beberapa waktu, tapi sepertinya saya juga perlu mencoba lagi Claude Code.
Saya juga pernah masuk ke situs QnA Microsoft, lalu saat menekan tombol kembali malah terjebak dalam loop tak berujung. Saya benar-benar berharap situs-situs seperti ini diperbaiki.
Dari sudut pandang pengguna, terlepas ada redirect atau tidak, kalau menekan tombol kembali seharusnya bisa keluar.
Situs-situs seperti ini selalu membuat kita harus menahan tombol kembali lalu keluar lebih dari 2 depth.
Sepertinya akan diubah jadi hanya bisa mendapatkannya jika bisa membuktikan bahwa tidak sedang ada penggunaan besar di perangkat lain atau aktivitas seperti game maupun unduhan.
Fitur-fitur yang direkomendasikan oleh seseorang yang sudah mencobanya lebih awal selama beberapa minggu
Bisa membuat panel dan menjalankan agen secara bersamaan
Bisa menyematkan sesi dan mengatur urutannya dengan drag-and-drop
Bisa langsung memulai sesi dari PR
Preview, diff pull request, tugas, rencana, terminal terpisah, dan lain-lain semuanya bisa dibuka sebagai panel
Secara keseluruhan dipuji sebagai desain untuk developer yang dioptimalkan untuk menjalankan agen
Memang mudah menyiapkan LLM lokal dengan ollama, tetapi katanya kemungkinan pemanggilan tool gagal cukup tinggi tergantung model open source yang dipakai. Konon hal ini karena kombinasi aturan yang longgar di internal ollama dan masalah parser pemanggilan tool yang berbeda-beda untuk tiap model.
Masalah paling mendasar dari Local LLM justru adalah bahwa untuk menjalankan model menengah hingga besar dibutuhkan hardware yang mahal. MAC Studio 32GB harganya sekitar pertengahan 3 juta won, sedangkan GB10 sekitar 5~6 juta won, jadi cukup memberatkan jika dibeli perorangan hanya untuk hobi (?). Untuk Local LLM, pilihannya adalah model kecil, sementara untuk model menengah hingga besar pada akhirnya selain Cloud memang tidak banyak opsi.
Saya sudah mencoba keduanya dan menurut saya justru kebalikannya, tapi mungkin bukan begitu ya.
Saat saya memakainya, Codex cukup sering mengabaikan instruksi.
Akhir-akhir ini juga terasa seperti berubah karena Anthropic menurunkan performa Opus 4.6.
Katanya teknologi untuk menemukan kerentanan keamanan juga sudah berkembang pesat
Karena ketika kerentanan itu ditemukan, kebutuhan akan cara untuk mengamankannya juga ikut muncul
Jadi tampaknya metode keamanan juga akan ikut disempurnakan.
Masalah kronis Claude Codekayak gini belum pernah Anda alami ya. Di Reddit juga tiap hari ramai soal ini.Menurut saya, codex memberikan pengalaman yang lebih baik.
Saya sempat merasa familiar dengan OpenBMB, ternyata itu tempat yang membuat model MiniCPM-o.
Model MiniCPM-o adalah model omni seperti GPT 4o, dan performanya cukup bagus.
Silakan cek video demo MiniCPM-o,
Saya cukup puas dengan model itu, jadi saya juga jadi menantikan model kloning suara yang baru ini.
Kalau gratis dari sisi harga dan keamanannya juga bagus, pasti langsung dipakai sih haha
Kalau lihat yang begini, jadi lumayan kebayang juga kira-kira DevOps bakal berubah ke arah mana
Legenda...
Apa pun pilihannya, tetap butuh HITL. (setidaknya sampai hari ini)
Tolong jangan bawa-bawa omong kosong seperti Ralph Loop.
Ya, sudah sih... bahkan kalau cari
OPENAI_API_KEYdi GitHub saja, yang ketemu nyangkut juga banyak...Oh begitu ya. Kalau begitu saya akan puas dengan yang statis saja haha
Anda pakai operator internet mana sampai port-nya diblokir?
Bukannya malah kebalik? Senior ternyata kurang mumpuni dari yang diperkirakan
Kalau benar-benar dipakai, rasanya bisa bikin stres berat.
Insinyur AWS melaporkan bahwa kinerja PostgreSQL menurun hingga setengahnya di Linux 7.0 – perbaikannya mungkin tidak mudah
Bagian ini yang mengkhawatirkan
Karena disebut mesh, saya sempat mengira ini mirip Tailscale, tapi ternyata sedikit berbeda.
Ini bukan model P2P seperti Tailscale, melainkan arsitektur yang melewati jaringan edge CF, jadi
kebijakan Gateway atau fitur keamanan seperti DLP diterapkan otomatis,
dan dari Workers/Agents SDK, layanan privat bisa dipanggil hanya dengan satu baris
fetch(). Itulah pembeda utamanya.Saya sih tetap pakai Tailscale saja..
Karena kualitas aplikasi desktop codex bagus, saya sempat hanya memakai Codex selama beberapa waktu, tapi sepertinya saya juga perlu mencoba lagi Claude Code.
Saya juga pernah masuk ke situs QnA Microsoft, lalu saat menekan tombol kembali malah terjebak dalam loop tak berujung. Saya benar-benar berharap situs-situs seperti ini diperbaiki.
Dari sudut pandang pengguna, terlepas ada redirect atau tidak, kalau menekan tombol kembali seharusnya bisa keluar. Situs-situs seperti ini selalu membuat kita harus menahan tombol kembali lalu keluar lebih dari 2 depth.
Sepertinya akan diubah jadi hanya bisa mendapatkannya jika bisa membuktikan bahwa tidak sedang ada penggunaan besar di perangkat lain atau aktivitas seperti game maupun unduhan.
https://x.com/dani_avila7/status/2044136770992791778
Fitur-fitur yang direkomendasikan oleh seseorang yang sudah mencobanya lebih awal selama beberapa minggu
Secara keseluruhan dipuji sebagai desain untuk developer yang dioptimalkan untuk menjalankan agen
Memang mudah menyiapkan LLM lokal dengan ollama, tetapi katanya kemungkinan pemanggilan tool gagal cukup tinggi tergantung model open source yang dipakai. Konon hal ini karena kombinasi aturan yang longgar di internal ollama dan masalah parser pemanggilan tool yang berbeda-beda untuk tiap model.
Masalah paling mendasar dari Local LLM justru adalah bahwa untuk menjalankan model menengah hingga besar dibutuhkan hardware yang mahal. MAC Studio 32GB harganya sekitar pertengahan 3 juta won, sedangkan GB10 sekitar 5~6 juta won, jadi cukup memberatkan jika dibeli perorangan hanya untuk hobi (?). Untuk Local LLM, pilihannya adalah model kecil, sementara untuk model menengah hingga besar pada akhirnya selain Cloud memang tidak banyak opsi.