Sejak ada Notion AI, rasanya jadi... bahkan tidak jelas lagi ini aplikasi apa.
Ternyata kejadian seperti ini juga pernah ada.

 

Pemikiran ini memang singkat, tetapi belakangan saya jadi memikirkan hal seperti ini. Dulu katanya para ahli assembly melihat pengembang bahasa C sambil berkata hal-hal seperti "tidak tahu cara menghemat memori" atau "tidak paham hardware", dan kalau dilihat sekarang rasanya kritik yang mirip juga masih berlanjut dalam konteks yang sama. Pada akhirnya, bukankah dari sudut pandang pengembangan perangkat lunak kita hanya beralih untuk mengembangkan dengan bahasa yang lebih terabstraksi (AI) dibanding bahasa pemrograman yang sudah ada sebelumnya. Karena itu, wajar saja kalau keahlian terhadap bahasa yang digunakan sebelumnya menjadi menurun. Namun, seperti sampai belum lama ini para pengembang yang bekerja dengan bahasa yang lebih low-level daripada sekarang sering disebut "monster", mungkin ke depannya orang-orang yang membangun dengan vibe coding tetapi tetap memahami prinsip bahasa-bahasa yang sudah ada akan dipandang sebagai sosok yang istimewa.

 

Apa cuma perasaan saya, atau memang di sini juga kelihatan banyak komentar yang ditulis AI?

 

Secara konsep ini memang menarik, tetapi saya tetap ragu apakah akan benar-benar berjalan dengan baik dalam praktik. Seperti juga muncul dalam pendapat di HN, pasar dua sisi (two-sided market) harus berhasil mendapatkan pelanggan awal di kedua sisi, jadi itu masalah besar.

 

Kelihatannya ini seperti makalah Anda sendiri, benar begitu?

 
click 5 jam lalu | induk | di: Insiden keamanan Vercel pada April 2026 (bleepingcomputer.com)

Di sini juga terlihat karakter Hindi. Belakangan ini, terlepas dari openai, claude, atau google, cukup sering terjadi output berbahasa Korea bercampur Hindi. Apakah pelabelan dataset bahasa Korea dikerjakan oleh orang India?
Saya dulu kurang suka model Tiongkok karena respons bahasa Koreanya bercampur bahasa Mandarin, tetapi belakangan model frontier malah terus mencampurkan Hindi, jadi rasa penolakan saya terhadap model Tiongkok justru berkurang.

 

Oh, terima kasih sudah berbagi!

 

Sepertinya ini akan jadi referensi yang bagus. Jika isi artikelnya adalah pendekatan untuk menutup katup "token yang masuk",
saya justru sering mengalami kasus ketika "yang sudah terdaftar itu sendiri" terlalu banyak hingga jadi masalah, jadi saya membuat alat bernama claude-slim.

Ini adalah CLI yang memindai, mengklasifikasikan, dan merapikan situasi seperti dari 60 skill, separuhnya belum pernah dipakai sama sekali, atau CLAUDE.md membengkak karena plugin. Penghitungan token berbasis js-tiktoken,
bukan dihapus melainkan dipindahkan ke skills.disabled/ sehingga bisa di-restore kapan saja.

https://github.com/iops-leo/claude-slim

Arah dan pengaturannya sangat saling melengkapi dengan yang ada di artikel, jadi sepertinya bagus jika dipakai bersamaan.

 
cosine20 6 jam lalu | induk | di: Mengapa perkeretaapian Jepang begitu unggul (worksinprogress.co)

Berkat jadwal yang saling terhubung rapat, transit jadi nyaman -> sisi penuh harapan
Tidak ada pintu peron, jadi saat jam berangkat/pulang kerja kadang ada orang yang melompat untuk bunuh diri, dan keterlambatan juga sering terjadi karena pemadaman listrik, kerusakan, dan sebagainya -> sisi penuh keputusasaan

Saya sudah tinggal di Jepang selama 1 tahun, dan momen ketika saya merasa kereta Jepang itu bagus kira-kira 53%, sementara sekitar 47% sisanya cuma penuh rasa kesal. Terutama Jalur Hibiya, karena baunya seperti jamur dari AC sepanjang tahun, jadi kalau naik tanpa masker rasanya seperti bakal kena pneumonia.

 
kuthia 6 jam lalu | induk | di: Anthropic merilis Claude Design (anthropic.com)

Setelah saya coba, tingkat pengenalan sketsa di atas serbet benar-benar mengejutkan. Sekarang bahkan chat pun sudah tidak diperlukan lagi.

 
overthinker1127 6 jam lalu | induk | di: Saya sedang coding dengan tangan selama beberapa bulan (miguelconner.substack.com)

Saya justru beralih ke nvim setelah memakai AI Agent.
Karena melihat source code jauh lebih nyaman di nvim..

 

Setuju. Data inti dari domain yang sangat maju seperti kedirgantaraan, medis, dan kontrol presisi berada di jaringan internal yang tertutup rapat, dan untuk mengaksesnya Anda harus menjadi orang dalam yang penting, atau jika dari luar, data itu baru bisa dibuka setelah mengeluarkan biaya yang cukup besar dan menandatangani NDA. Sebagian besar data yang dipelajari AI adalah yang dipublikasikan di internet, dan untuk layanan web/aplikasi berbasis Python dan JavaScript, Full Automation sampai tingkat tertentu memang memungkinkan.
Karena grafis 3D dan algoritma berbasis CAD yang digunakan di domain canggih tersebar secara terfragmentasi di internet atau bahkan sama sekali tidak ada, AI juga pada akhirnya hanya bisa menghasilkan hasil yang dangkal lewat vibe coding. Menurut saya, pendekatan yang aman dan realistis adalah menempatkan satu agen utama, lalu terus menyuntikkan konteks domain hingga tingkat micro-managing, sambil mengembangkan dengan pola amplifikasi berkelanjutan yang dipimpin langsung oleh developer melalui siklus Planning → Redirection → Review, bukan full automation yang sepenuhnya dipimpin AI

 

Kalau lihat para developer yang ngoding vibe tanpa mikir, rasanya bikin emosi. Kualitas hasil kerjanya sendiri berantakan, lalu coba saja berkilah dengan bilang itu ditulis AI. Tanggung jawab tetap ada pada dirinya sendiri.

 

Sepertinya selalu membalas dengan logika yang mirip seperti ini.. kalkulator tidak salah menghitung. Ia menjalankan perannya dengan benar.

 

Terima kasih. Konsumsi token Claude juga besar, dan hasil kerjanya dibanding Codex agak kurang memuaskan, jadi belakangan ini saya lebih banyak bekerja dengan Codex.

 

Terima kasih telah berbagi informasi yang bagus. Secara mendasar saya merasa penggunaan token itu sendiri sudah jauh berkurang, jadi saya berharap di Claude bisa ditingkatkan. Karena harness berjalan lalu terputus di tengah...

 

Saya juga setuju dengan pendapat ini.
Pada akhirnya, saya melihat ini sebagai alat dengan trade-off yang jelas.
Saya juga khawatir kemampuan coding saya akan menurun semakin sering menggunakan AI, tetapi yang pasti saya jadi memikirkan hal-hal lain yang dulu tidak saya lakukan (atau tidak bisa saya lakukan).

 

id
name
displayName
email
active
admin
guest
timezone
createdAt
updatedAt
lastSeen

Katanya data serta API key seperti token npm atau token GitHub juga bocor. Katanya sudah muncul pedagang data.

 

> Di dasar keruntuhan ini terdapat keterbatasan matematis dari 'normalisasi softmax', jantung dari arsitektur transformer. Dalam mekanisme attention, jumlah bobot perhatian semua token harus selalu menjadi 1, mengikuti distribusi zero-sum. Karena itu, saat panjang sekuens input N bertambah secara geometris, bobot informasional yang dapat dialokasikan ke token inti tertentu niscaya akan konvergen ke 1/N dan terdilusi secara aritmetis. Ini bukan sekadar inefisiensi komputasi, tetapi berarti 'noise floor' yang harus diproses model meningkat tajam.

Ini apaan, bukan lucu-lucuan juga kali..