Ini hanya dugaan, tetapi mungkin karena agar bisa diakses lewat perangkat mobile saat sedang bepergian, harus berupa sesi web. Dalam situasi di mana beban kognitif yang masih bisa ditangani kira-kira sekitar 10, mungkin 5 dikerjakan secara mendalam di lokal lewat PC, dan sisanya dikerjakan cepat lewat mobile.
Melihat gambar di tulisan aslinya, sepertinya dia menjalankan 5 di lokal dan 5 di web untuk bekerja. Apakah ada alasan khusus kenapa tidak dibuat 10 di lokal dan 10 di web, melainkan dibagi 5 dan 5?
Saya juga sambil sedikit memberi dukungan... belakangan ini saya memakainya dan cukup menyenangkan.
Saya suka karena rasanya hanya memperbaiki hal-hal yang tidak nyaman saat memakai C.
Dokumentasi resminya agak belum matang
(untuk mencari tahu berbagai fitur, sering kali penjelasannya tertulis di tempat yang tiba-tiba dan tidak terduga...)
Pendapat yang ingin saya sampaikan adalah bahwa tulisan ini terasa sangat bergaya AI dan juga tidak memiliki referensi, jadi sebaiknya tulisan seperti ini tidak dibagikan.
Saya juga sempat memikirkan masalah biaya, dan tampaknya memang biayanya sangat berbeda tergantung pada resolusi gambar input. Selain itu, saya sama sekali tidak terpikir soal hubungan antara ukuran gambar input dan kecepatan pemrosesan, jadi ini menarik. Ternyata kalau di-crop, kecepatan pemrosesannya juga jadi lebih cepat.
Dan peningkatan akurasinya benar-benar mengejutkan!
Meskipun performa VLM sudah jauh membaik, apakah sampai saat ini tetap belum bisa melampaui performa model YOLO yang dilatih untuk satu tujuan tertentu?
Terima kasih sudah menuliskan know-how yang Anda peroleh dari pengalaman nyata di lapangan.
Kalau saya menghadapi masalah serupa, saya pasti akan menjadikan metode yang Anda gunakan sebagai referensi.
Saya juga akhir-akhir ini sering merasakan hal itu..
Saya menduga banyak tulisan di berbagai blog ditulis berdasarkan pengalaman pribadi + bantuan AI.
Tulisan-tulisannya terlalu runtut secara logis dan mudah dibaca.
Kalau mau menerapkan MSA, organisasinya juga harus disesuaikan dengan MSA...
Senang sekali melihat ada tulisan tentang Unity.
Saya membacanya dengan baik.
Ini hanya dugaan, tetapi mungkin karena agar bisa diakses lewat perangkat mobile saat sedang bepergian, harus berupa sesi web. Dalam situasi di mana beban kognitif yang masih bisa ditangani kira-kira sekitar 10, mungkin 5 dikerjakan secara mendalam di lokal lewat PC, dan sisanya dikerjakan cepat lewat mobile.
Sepertinya inti yang ingin disampaikan ada pada poin 4 di ringkasan bawah. Dan secara keseluruhan, isinya sendiri cukup relate.
Bukan menyindir sih, tapi Safari pasti mematuhi semua persyaratan yang begitu banyak itu... kan?
Saya pelanggan Max, dan rasanya token terkuras hanya dengan membacanya.
Saya datang untuk membuat produk, bukan untuk mengutak-atik Kubernetes seharian —> itu omong kosong paling tolol yang pernah saya dengar
Melihat gambar di tulisan aslinya, sepertinya dia menjalankan 5 di lokal dan 5 di web untuk bekerja. Apakah ada alasan khusus kenapa tidak dibuat 10 di lokal dan 10 di web, melainkan dibagi 5 dan 5?
Ini postingan AI yang tidak punya isi. Makanya belakangan ini saya hampir tidak pernah membaca Medium.
Saya juga sambil sedikit memberi dukungan... belakangan ini saya memakainya dan cukup menyenangkan.
Saya suka karena rasanya hanya memperbaiki hal-hal yang tidak nyaman saat memakai C.
Dokumentasi resminya agak belum matang
(untuk mencari tahu berbagai fitur, sering kali penjelasannya tertulis di tempat yang tiba-tiba dan tidak terduga...)
Penasaran dengan masa depan StackOverflow
Excalidraw memang sangat bagus
Nah. Sekarang para fanatik MSA akan berdatangan.
Ringkasannya sangat bagus, terima kasih.
Ini adalah postingan yang muncul di Hacker News. Sebagian besar tulisan yang saya unggah adalah konten yang muncul di Hacker News.
https://news.ycombinator.com/item?id=46469845
Seperti yang Anda katakan.. sepertinya saya memang perlu mencantumkan referensi Hacker News.
Biasanya diposting setiap bulan November, tapi tahun ini saya agak terlambat membagikannya.
Prediksi teknologi CTO Amazon setelah 2025
Prediksi teknologi CTO Amazon setelah 2024
Prediksi teknologi CTO Amazon setelah 2023
Prediksi teknologi CTO Amazon setelah 2022
Pendapat yang ingin saya sampaikan adalah bahwa tulisan ini terasa sangat bergaya AI dan juga tidak memiliki referensi, jadi sebaiknya tulisan seperti ini tidak dibagikan.
Luar biasa ^^
Terima kasih atas jawabannya.
Saya juga sempat memikirkan masalah biaya, dan tampaknya memang biayanya sangat berbeda tergantung pada resolusi gambar input. Selain itu, saya sama sekali tidak terpikir soal hubungan antara ukuran gambar input dan kecepatan pemrosesan, jadi ini menarik. Ternyata kalau di-crop, kecepatan pemrosesannya juga jadi lebih cepat.
Dan peningkatan akurasinya benar-benar mengejutkan!
Meskipun performa VLM sudah jauh membaik, apakah sampai saat ini tetap belum bisa melampaui performa model YOLO yang dilatih untuk satu tujuan tertentu?
Terima kasih sudah menuliskan know-how yang Anda peroleh dari pengalaman nyata di lapangan.
Kalau saya menghadapi masalah serupa, saya pasti akan menjadikan metode yang Anda gunakan sebagai referensi.
Saya juga akhir-akhir ini sering merasakan hal itu..
Saya menduga banyak tulisan di berbagai blog ditulis berdasarkan pengalaman pribadi + bantuan AI.
Tulisan-tulisannya terlalu runtut secara logis dan mudah dibaca.