Rasanya sekarang kita bisa melangkah jauh lebih cepat daripada sebelumnya dalam teknologi yang belum pernah dicoba atau bidang yang belum pernah dialami.
https://ruby-news.kr/articles/…
Ringkasan dari layanan yang saya buat. Ini hasil terjemahan, dan meski mirip, GeekNews tampak lebih rapi dan enak dibaca.
Dari pengalaman saya memakai Claude Code, rasanya bukan seperti agen yang menggantikan pengembangan, melainkan lebih mirip hanya mengalihdayakan bagian saat benar-benar mengetik kode dalam proses pengembangan.
Dalam banyak kasus, perancangannya tetap harus dilakukan manusia, dan instruksinya juga harus diberikan secara rinci agar bisa diikuti apa pun yang datang, jadi rasanya berbeda dari yang sering saya dengar.
Meski begitu, saya tetap puas menggunakannya. Walaupun tidak banyak mengurangi pekerjaan saya, saat AI sedang mengerjakan tugas saya bisa melakukan hal lain atau memberi perintah ke AI lain, jadi cukup membantu dari sisi penghematan waktu.
Kalau Anda menggunakan Claude Code, saya sarankan memasukkan kata-kata instruksi penalaran yang sudah ditentukan sebelumnya seperti think deeply atau ultrathink ke dalam prompt, lalu ubah ke plan mode dengan Shift+Tab untuk bekerja.
Kalau LLM memang sudah benar-benar berguna tetapi seseorang bahkan tidak mau mencobanya, malah meremehkan dan sengaja menghindarinya, maka orang itu yang bermasalah.
Namun kualitas layanan level konsumen saat ini masih di tingkat yang sulit dipakai.
Saya sudah mencoba model berbayar dari layanan terkenal seperti Perplexity, GPT, dan Gemini, tetapi semuanya sebelas dua belas.
Bahkan kalau saya mencari data sendiri, melampirkan tautan, dan menyuapi data yang dibutuhkan, mereka tetap tidak benar-benar membacanya, malah mengarang isi dan terus mengulang klaim yang salah.
Lalu semuanya juga sama-sama punya keras kepala yang aneh; begitu mulai membuat klaim yang salah sekali, itu nyaris tidak bisa diperbaiki. Membuang seluruh percakapan dan memulai dari awal malah lebih cepat.
Sejujurnya, berdebat dengan hal seperti ini itu menjengkelkan. Mereka tidak paham maksud pembicaraan.
Dalam waktu yang sama, lebih cepat kalau saya langsung mencari dokumennya sendiri, memahami sendiri, lalu memperbaikinya sendiri.
Saya juga sempat mencoba beberapa layanan sejenis Copilot untuk memilih satu, tetapi pada akhirnya semuanya saya buang.
Untuk pekerjaan setingkat snippet mereka memang lumayan, tetapi sulit mengharapkan lebih dari itu. Kalau begitu, untuk apa repot-repot berbagi data, terhubung ke internet yang lambat sekali, lalu memakainya? Mending saya daftar beberapa snippet lagi saja.
Saya tidak tahu orang-orang yang bilang punya pengalaman bagus itu memakai layanan apa dan untuk pekerjaan serumit apa.
Saat VisiCalc, Lotus 1-2-3, dan semacamnya muncul, orang masih saja mengetuk-ngetuk sempoa dan kalkulator... ternyata ada jeda waktu yang cukup besar dari yang dibayangkan sampai masyarakat umum benar-benar merasakannya.
Kalau hanya masalah kecil, beberapa perusahaan kadang memakai aplikasi autentikasi push seperti DUO (login Okta/Jira, persetujuan pull request, dan sebagainya), jadi untuk OS tidak resmi seperti ini sepertinya akan ada batasan dalam pemasangan dan penggunaan. Tentu saja, ini bisa diatasi dengan memakai dua ponsel, sih...
Ini memang berlaku dulu maupun sekarang
Dengan cara yang mirip, saat mem-porting library codec ke ARM saya juga mulai dari mengurai kernel berbasis SSE satu per satu, dan setelah semuanya selesai diurai hingga hanya menyisakan versi skalar lalu menjalankan benchmark dunia nyata, perbedaan performanya terasa signifikan.
Rasanya sekarang kita bisa melangkah jauh lebih cepat daripada sebelumnya dalam teknologi yang belum pernah dicoba atau bidang yang belum pernah dialami.
Ini apaan...
Kalau makan ya kenyang
Ngomong hal yang sudah jelas begitu
https://github.com/smtg-ai/claude-squad
Sepertinya mirip dengan open source tersebut juga
Kenyataan
Pro & Max: token tidak cukup bahkan untuk menjalankan satu sesi
API bayar sesuai pemakaian: sanggup menanggungnya?
https://ruby-news.kr/articles/…
Ringkasan dari layanan yang saya buat. Ini hasil terjemahan, dan meski mirip, GeekNews tampak lebih rapi dan enak dibaca.
Sepertinya termasuk opsi.
Keren sekali!
Kalimat seperti itu terasa cukup mengesankan~
Rasanya seperti, 'pekerjaan yang biasanya dikerjakan santai selama 5 hari dipadatkan jadi lebih ketat dengan mengurangi 1 hari'
Sepertinya ada tipe organisasi tertentu yang memungkinkan untuk menerapkannya, haha..
Dari pengalaman saya memakai Claude Code, rasanya bukan seperti agen yang menggantikan pengembangan, melainkan lebih mirip hanya mengalihdayakan bagian saat benar-benar mengetik kode dalam proses pengembangan.
Dalam banyak kasus, perancangannya tetap harus dilakukan manusia, dan instruksinya juga harus diberikan secara rinci agar bisa diikuti apa pun yang datang, jadi rasanya berbeda dari yang sering saya dengar.
Meski begitu, saya tetap puas menggunakannya. Walaupun tidak banyak mengurangi pekerjaan saya, saat AI sedang mengerjakan tugas saya bisa melakukan hal lain atau memberi perintah ke AI lain, jadi cukup membantu dari sisi penghematan waktu.
Kalau Anda menggunakan Claude Code, saya sarankan memasukkan kata-kata instruksi penalaran yang sudah ditentukan sebelumnya seperti
think deeplyatauultrathinkke dalam prompt, lalu ubah ke plan mode denganShift+Tabuntuk bekerja.wkwkwk
Kalau LLM memang sudah benar-benar berguna tetapi seseorang bahkan tidak mau mencobanya, malah meremehkan dan sengaja menghindarinya, maka orang itu yang bermasalah.
Namun kualitas layanan level konsumen saat ini masih di tingkat yang sulit dipakai.
Saya sudah mencoba model berbayar dari layanan terkenal seperti Perplexity, GPT, dan Gemini, tetapi semuanya sebelas dua belas.
Bahkan kalau saya mencari data sendiri, melampirkan tautan, dan menyuapi data yang dibutuhkan, mereka tetap tidak benar-benar membacanya, malah mengarang isi dan terus mengulang klaim yang salah.
Lalu semuanya juga sama-sama punya keras kepala yang aneh; begitu mulai membuat klaim yang salah sekali, itu nyaris tidak bisa diperbaiki. Membuang seluruh percakapan dan memulai dari awal malah lebih cepat.
Sejujurnya, berdebat dengan hal seperti ini itu menjengkelkan. Mereka tidak paham maksud pembicaraan.
Dalam waktu yang sama, lebih cepat kalau saya langsung mencari dokumennya sendiri, memahami sendiri, lalu memperbaikinya sendiri.
Saya juga sempat mencoba beberapa layanan sejenis Copilot untuk memilih satu, tetapi pada akhirnya semuanya saya buang.
Untuk pekerjaan setingkat snippet mereka memang lumayan, tetapi sulit mengharapkan lebih dari itu. Kalau begitu, untuk apa repot-repot berbagi data, terhubung ke internet yang lambat sekali, lalu memakainya? Mending saya daftar beberapa snippet lagi saja.
Saya tidak tahu orang-orang yang bilang punya pengalaman bagus itu memakai layanan apa dan untuk pekerjaan serumit apa.
Saya akan cepat menua, ya.
Selama ini pengetahuan umumnya adalah kecepatan rotasi makin melambat, jadi ini malah kebalikannya.
Saya juga sudah mencoba beralih dari pip ke uv, dan ternyata memang cukup layak pindah hanya karena satu hal: kecepatannya benar-benar kencang.
Saya kangen jam kerja 6 jam saat masa COVID T_T
Saat VisiCalc, Lotus 1-2-3, dan semacamnya muncul, orang masih saja mengetuk-ngetuk sempoa dan kalkulator... ternyata ada jeda waktu yang cukup besar dari yang dibayangkan sampai masyarakat umum benar-benar merasakannya.
"Kalau berhenti bernapas selama 1 jam, tingkat kelangsungan hidup menurun"
"Rasa kenyang meningkat saat makan"
Kalau hanya masalah kecil, beberapa perusahaan kadang memakai aplikasi autentikasi push seperti DUO (login Okta/Jira, persetujuan pull request, dan sebagainya), jadi untuk OS tidak resmi seperti ini sepertinya akan ada batasan dalam pemasangan dan penggunaan. Tentu saja, ini bisa diatasi dengan memakai dua ponsel, sih...
Ini memang berlaku dulu maupun sekarang
Dengan cara yang mirip, saat mem-porting library codec ke ARM saya juga mulai dari mengurai kernel berbasis SSE satu per satu, dan setelah semuanya selesai diurai hingga hanya menyisakan versi skalar lalu menjalankan benchmark dunia nyata, perbedaan performanya terasa signifikan.
Ah.. jadi informasinya disimpan di
.env, lalu dibaca oleh.env.schema, ya.