Model ini lumayan bagus.
Bagi yang punya kondisi memungkinkan dan ingin menjalankannya dengan llama.cpp, Anda perlu menerapkan prompt yang ada di komentar pada utas berikut secara terpisah. Jika tidak, akan muncul masalah di mana hanya satu </think> yang muncul sendirian di tengah tanpa <think> pembuka.
https://huggingface.co/stepfun-ai/Step-3.5-Flash-GGUF-Q4_K_S/…

llama-server \  
  opsi dihilangkan \  
  --jinja \  
  --chat-template-file path/step3p5_flash_chat_template.jinja  
 

Peralihan dari prompt engineering ke context engineering adalah kuncinya, dan secara praktis tampaknya jawabannya adalah "pemisahan kepentingan".

Jika persona, aturan perilaku, dan memori dikelola dalam file yang berbeda-beda, itu efektif untuk mengurangi context rot. Dibandingkan prompt monolitik, memuat hanya file yang diperlukan jauh lebih menguntungkan bagi attention budget. Karena itu, tampaknya OpenClaw (atau framework serupa) mengelola persona (SOUL.md), aturan perilaku (AGENTS.md), dan memori (MEMORY.md) secara terpisah.

 

Sebagai tambahan, perusahaan L terkenal dengan budaya menindas bawahan dan memanjakan atasan..
Saya pernah mendengar dari mulut ke mulut bahwa begitu seseorang menjadi eksekutif, perlakuannya melampaui imajinasi.

 
newbie1004 2026-02-20 | induk | di: AI Vampir (The AI Vampire) (steve-yegge.medium.com)

Begitu jam kerja selesai, kepala rasanya kram.

 

Ini benar-benar artikel yang sangat membantu.

 

Saat ekor panjang pasar berubah menjadi super panjaaaaaaaaaaang, sepertinya akan menjadi topik riset yang menarik apakah pasar justru akan mati atau malah tumbuh.

 

Mungkin memang ada maknanya karena proyek berskala besar itu dikerjakan dengan vibe coding,
namun seperti yang Anda katakan, saya juga setuju bahwa itu agak kurang tepat karena gcc kemungkinan merupakan hal yang sudah dipelajari.

Pembahasan serupa juga muncul di video ini. https://www.youtube.com/watch?v=6QryFk4RYaM

 

Salah satu alasan mengapa masalah pengangguran pada masa Revolusi Industri tidak begitu dikenal adalah karena yang didorong ke tepi jurang adalah orang-orang koloni yang paling tidak berdaya.

 

Model itu kemungkinan besar sudah dilatih dengan mengumpulkan semua pengetahuan terkait gcc, baik berizin maupun tidak, jadi menurut saya ini juga kurang tepat sebagai tolok ukur untuk menunjukkan performa LLM..

 

Saya baru-baru ini berlangganan suno untuk membuat soundtrack
Untuk use case yang sederhana, sepertinya bisa menghemat biaya langganan

 
mammal 2026-02-20 | induk | di: AI Membuat Anda Menjadi Membosankan (marginalia.nu)

> Nilai seni terletak pada niat, bukan pada hasil akhirnya.
Bahkan gambar pensil yang sederhana pun, jika dibuat dengan ketulusan, bisa lebih menyentuh daripada gambar mewah yang dibuat oleh AI.
Ucapan “saya menggambarnya sendiri” memuat tekad dan cerita.

Saat melihat karya cipta, kita secara alami membentuk gambaran di kepala. Pada saat yang sama, kita juga menebak, 'dengan perasaan dan pikiran seperti apa orang ini membuatnya?'

Apa yang terus-menerus kita lakukan di pelajaran bahasa di sekolah, yaitu 'memahami maksud penulis', pada akhirnya juga merupakan latihan untuk menumbuhkan kepekaan seperti ini.

Namun ketika melihat hasil karya AI, yang lebih dulu terbayang bukanlah sosok seseorang yang memegang suatu masalah, berpikir keras dalam waktu lama, atau melalui trial and error, melainkan seseorang yang melempar prompt di depan layar seperti memutar mesin slot, seperti "perbaiki ini", "betulkan ini", atau "tambahkan X".

Mungkin karena itu, saat melihat karya AI, cerita atau ketegangan yang lahir dari prosesnya terasa lebih kurang, dan jadinya tidak terlalu menarik.

 

Apa cuma saya yang sudah baca tapi tetap tidak paham maksudnya.. jangan-jangan ini cuma cerita bahwa gcc di-vibe coding, ya?

 

Pembaca yang tepat:

Orang-orang yang membuat “agen yang berjalan lama” seperti Claude Code
(khususnya engineer produk/platform, engineer infrastruktur LLM)

Siapa yang akan paling terbantu?
✅ 1) Tim yang membuat produk agen AI

  • Agen IDE (jenis Claude Code, Cursor, Copilot Workspace)
  • Agen riset
  • Agen otomatisasi untuk pekerjaan berdurasi panjang

✅ 2) Engineer yang mengoptimalkan biaya/latensi LLM

  • Tulisan ini pada dasarnya adalah: “optimasi prompt caching = performa/biaya produk”
  • Orang infrastruktur akan langsung paham saat membacanya.

✅ 3) Orang yang memasang banyak tool MCP

  • Masalah cache rusak saat tool ditambah/dihapus
  • Masalah memodelkan implementasi plan mode sebagai “tool”

Sebaliknya, pengguna umum hampir pasti tidak akan membacanya

Ini bukan tulisan seperti “cara menulis prompt dengan baik”

Melainkan

“bagaimana prompt harus ditangani di level arsitektur produk”

Ringkasnya dalam satu kalimat

Ini adalah tulisan untuk orang-orang yang membangun LLM bukan sebagai “chat”, melainkan sebagai “sistem produksi”.

 

Chris Lattner memang selalu layak dipercaya.

 

Saya juga terutama memakai opencode, jadi saya langsung membatalkan langganan Claude.
Agak sayang memang tidak bisa memakai Opus 4.6, tapi kalau bukan paket Claude MAX 200, ada juga masalah limit yang terlalu sering kena, jadi saya tidak terlalu merasa sayang karena tidak bisa memakai claude code.
Toh saya tinggal menyuruh agent mengerjakannya lalu mengerjakan hal lain, jadi meski memakan waktu agak lama pun tidak masalah.

 
jjw9512151 2026-02-20 | induk | di: AI Vampir (The AI Vampire) (steve-yegge.medium.com)

Banyak-banyaklah baca web novel.. di sekitar saya, ternyata ada banyak orang yang jago memakai AI dan juga banyak membaca web novel wkwk

 

Tapi karena bicara soal sepak bola, saya jadi teringat Jeong Mong-gyu.