Dengan 2600X, bahkan saat idle kemungkinan memakai 30W, dan GPU juga tampaknya akan memakai sekitar 10W, jadi konsumsi dayanya cukup besar dibanding homelab yang disetel dengan CPU hemat daya.
Kalau hanya CPU+GPU, sepertinya mirip dengan daya idle N100 yang ditambah sekitar 3~4 hard disk.
Kalau ada harness yang tepat, sepertinya hasilnya tetap tidak buruk. Karena compaction itu sendiri jadi lebih sedikit, masalah hilangnya informasi di tengah juga berkurang..
> with FetcherSession(impersonate='chrome') as session: # Use latest version of Chrome's TLS fingerprint
Menarik juga, biasanya saya selalu mencari lalu memasukkannya secara manual, ini pertama kalinya saya melihat library seperti ini. Sepertinya akan praktis.
Pendapatan App Store memang tumbuh, tapi kalau bagi developer tetap sulit untuk mempertahankan nafkah, hmm.. apakah ini analisis yang benar? Biasanya hal seperti ini sangat dipengaruhi first mover advantage, jadi orang cenderung memakai yang ulasannya paling banyak, bukan? Terutama kalau berbayar..
Saya sudah mencobanya; performa gpt-5.4 sendiri sangat memuaskan, tetapi kadang model ini menghasilkan jawaban untuk pesan yang lebih lama alih-alih pesan tepat sebelumnya, jadi belum bisa dibilang sangat stabil. Ada juga laporan bahwa saat memakai long context, performanya pada tugas needle in the haystack turun hingga di bawah 50%, jadi saya pribadi tidak terlalu ingin merekomendasikannya. Meski begitu, saya juga tidak yakin apakah tugas needle in the haystack sendiri memang benchmark yang tepat untuk mengukur performa long-context. Bagaimanapun, Codex tidak butuh waktu lama untuk compaction, dan setelah compact pun konteksnya juga tidak mudah lupa, jadi dipakai begitu saja pun tidak terlalu merepotkan.
Ini pikiran yang terus terlintas belakangan ini, dan rasanya memang pas sekali.
Sekarang makin banyak software yang bisa keluar hanya dengan sekali klik, jadi rasanya MVP sudah menjadi konsep yang usang.
Era ketika orang bisa mendapat investasi hanya dengan ide sudah berakhir, dan mengubah apa yang ada di kepala menjadi kode kini sudah menjadi hal yang mendasar,
Setidaknya harus dibuat sampai pada tingkat di mana pengguna berpikir, "Ini lumayan bagus," dan saya juga cukup paham kenapa itu disebut MLP.
Dengan 2600X, bahkan saat idle kemungkinan memakai 30W, dan GPU juga tampaknya akan memakai sekitar 10W, jadi konsumsi dayanya cukup besar dibanding homelab yang disetel dengan CPU hemat daya.
Kalau hanya CPU+GPU, sepertinya mirip dengan daya idle N100 yang ditambah sekitar 3~4 hard disk.
Setelah diunduh, ternyata benar-benar ada.
Kalau ada harness yang tepat, sepertinya hasilnya tetap tidak buruk. Karena compaction itu sendiri jadi lebih sedikit, masalah hilangnya informasi di tengah juga berkurang..
Meskipun ini PC gaming, sepertinya karena tidak terus-menerus dijalankan pada beban penuh, kekhawatiran soal biaya listrik tidak akan terlalu besar.
Salah. Yang benar itu harus bilang, dia juga buang air besar, jadi kenapa cuma dia yang dipermasalahkan?
Namun, saya penasaran bagaimana cara mereka melewati Cloudflare. Sepertinya saya harus melihat kodenya dulu untuk memahaminya.
> with FetcherSession(impersonate='chrome') as session: # Use latest version of Chrome's TLS fingerprint
Menarik juga, biasanya saya selalu mencari lalu memasukkannya secara manual, ini pertama kalinya saya melihat library seperti ini. Sepertinya akan praktis.
Wkwk, ah ini agak lucu ya wkwkwk
Sepertinya paket personal belum didukung. Kira-kira nanti juga tetap tidak akan didukung?
Perbaikan rekursif sepertinya sudah dimulai.
Saya juga mengonfirmasi bahwa ini berlaku sama persis pada aplikasi codex untuk macOS.
para guru Claude, secara manusiawi bukannya ini terlalu cepat... hiks hiks
Kalau home lab orang ini sudah dirakit sampai segini, saya jadi ngeri membayangkan tagihan listriknya.
Pendapatan App Store memang tumbuh, tapi kalau bagi developer tetap sulit untuk mempertahankan nafkah, hmm.. apakah ini analisis yang benar? Biasanya hal seperti ini sangat dipengaruhi first mover advantage, jadi orang cenderung memakai yang ulasannya paling banyak, bukan? Terutama kalau berbayar..
Saya sudah mencobanya; performa
gpt-5.4sendiri sangat memuaskan, tetapi kadang model ini menghasilkan jawaban untuk pesan yang lebih lama alih-alih pesan tepat sebelumnya, jadi belum bisa dibilang sangat stabil. Ada juga laporan bahwa saat memakai long context, performanya pada tugas needle in the haystack turun hingga di bawah 50%, jadi saya pribadi tidak terlalu ingin merekomendasikannya. Meski begitu, saya juga tidak yakin apakah tugas needle in the haystack sendiri memang benchmark yang tepat untuk mengukur performa long-context. Bagaimanapun,Codextidak butuh waktu lama untuk compaction, dan setelah compact pun konteksnya juga tidak mudah lupa, jadi dipakai begitu saja pun tidak terlalu merepotkan.Terlihat jelas mereka bekerja dengan sangat menyenangkan.
Belakangan ini kecepatan rilis Anthropic benar-benar gila.
Sambil meningkatkan alat pengembang, sepertinya mereka sudah menuntaskan efek flywheel yang juga mempercepat pengembangan internal mereka sendiri.
Terasa sekali nuansa startup yang merilis sesuatu baru hampir setiap hari.
Sepertinya ini juga memberi tekanan besar ke OpenAI.
ShadowBroker! Sudah lama sekali, ini mengingatkan saya pada Mass Effect 2. https://masseffect.fandom.com/wiki/Shadow_Broker_(enemy)
Ini pikiran yang terus terlintas belakangan ini, dan rasanya memang pas sekali.
Sekarang makin banyak software yang bisa keluar hanya dengan sekali klik, jadi rasanya MVP sudah menjadi konsep yang usang.
Era ketika orang bisa mendapat investasi hanya dengan ide sudah berakhir, dan mengubah apa yang ada di kepala menjadi kode kini sudah menjadi hal yang mendasar,
Setidaknya harus dibuat sampai pada tingkat di mana pengguna berpikir, "Ini lumayan bagus," dan saya juga cukup paham kenapa itu disebut MLP.
Bahkan ada juga cerita bahwa Hacker News akan menghentikan Show karena terlalu banyak postingan.
Melalui hal-hal seperti ini, nantinya akan ada semakin banyak proyek yang layak diperhatikan dengan minat.
Font Korea mungkin jauh lebih sulit, ya?