Thoughtworks Technology Radar, Volume 33 dirilis
(thoughtworks.com)- Memvisualisasikan dan menjelaskan tren terbaru di bidang teknik/alat/platform/bahasa pemrograman dan framework dalam empat tahap: Adopt (direkomendasikan untuk diadopsi), Trial (uji coba), Assess (evaluasi), dan Hold (waspada)
- Empat tema utama: orkestrasi infrastruktur AI, kebangkitan agen berbasis MCP, workflow coding AI, dan munculnya antipola AI
Mengadopsi orkestrasi infrastruktur untuk AI
- Beban kerja AI menuntut organisasi untuk melakukan orkestrasi fleet GPU skala besar untuk pelatihan dan inferensi
- Seiring meningkatnya model besar yang melampaui batas kapasitas HBM GPU tunggal (80GB), pelatihan terdistribusi dan inferensi multi-GPU menjadi keharusan
- Tim platform membangun pipeline multi-tahap yang kompleks dan terus menyesuaikan throughput serta latensi
- Melakukan telemetri fleet jarak jauh dengan Nvidia DCGM Exporter, dan menempatkan pekerjaan di lokasi dengan bandwidth interkoneksi tertinggi melalui penjadwalan sadar topologi
- Kubernetes adalah fondasi utama untuk mengelola beban kerja AI dalam skala besar, tetapi platform alternatif seperti microVM (Firecracker) dan Uncloud juga mulai mendapat perhatian
- Strategi penempatan yang mempertimbangkan komunikasi cepat antar-link GPU terus berkembang, seperti manajemen antrean dan kuota melalui Kueue, topology-aware scheduling, dan gang scheduling
- Menempatkan pekerjaan multi-GPU di dalam “pulau” pusat data yang berkesinambungan (rack atau pod) yang memiliki link GPU berkecepatan tinggi seperti NVLink/NVSwitch dan RDMA
- Peningkatan API sadar multi-GPU dan NUMA terbaru di Kubernetes memperkuat kapabilitas ini, dengan peningkatan bandwidth antarperangkat, penurunan tail latency, dan kenaikan tingkat utilisasi yang efektif
- Dengan meningkatnya permintaan workflow coding AI dan munculnya agen yang ditingkatkan melalui MCP, inovasi cepat pada infrastruktur AI diperkirakan akan terus berlanjut
- Orkestrasi yang sadar GPU menjadi persyaratan dasar, dan topologi kini muncul sebagai pertimbangan penjadwalan kelas satu
Kebangkitan agen berbasis MCP
- Kebangkitan simultan MCP dan agen, serta meluasnya ekosistem protokol dan alat yang dibangun di sekitarnya, menjadi tema utama Radar kali ini
- MCP sedang memantapkan posisinya sebagai protokol integrasi utama untuk menggerakkan agen dan memungkinkan operasi yang efisien serta semi-otonom
- Hampir semua vendor besar menambahkan dukungan MCP, dan workflow yang berpusat pada agen tumbuh dengan cepat
- Inovasi berkelanjutan dalam workflow agen terus terlihat, dan context engineering muncul sebagai kunci untuk mengoptimalkan perilaku model serta efisiensi sumber daya
- Protokol baru seperti A2A (Agent-to-Agent) dan AG-UI menurunkan kompleksitas pembangunan aplikasi kolaborasi multi-agen
- Teknik seperti AGENTS.md, Anchoring coding agents, dan server MCP Context7 mulai diadopsi dalam workflow pengembangan nyata
- Karena karakteristik ekosistem AI, setiap edisi Radar memunculkan ledakan inovasi baru
— sebelumnya RAG, kali ini workflow agen dan kumpulan (constellation) alat, teknik, serta platform yang mendukungnya terus berkembang- Dan beberapa antipola AI yang patut diperhatikan juga mulai muncul
Workflow coding AI
- AI sedang mengubah cara perangkat lunak dibangun dan dipelihara, dan menjadi tema dominan dalam diskusi terbaru
- Dari pemanfaatan AI untuk memahami codebase legacy hingga GenAI untuk forward engineering, AI kini diintegrasikan secara strategis di seluruh rantai nilai perangkat lunak
- Tim sedang mempelajari cara memasok pengetahuan ke agen coding dengan lebih efektif
- Tim bereksperimen dengan praktik baru seperti mendefinisikan instruksi khusus melalui file AGENTS.md dan mengintegrasikannya dengan server MCP seperti Context7 untuk mengambil dokumentasi dependensi terbaru
- Meningkatnya kesadaran bahwa AI tidak hanya harus meningkatkan kontribusi individu, tetapi juga memperkuat seluruh tim
- Instruksi bersama yang dikurasi dan perintah kustom muncul untuk menjamin penyebaran pengetahuan yang merata
- Lanskap alat berkembang dengan dinamis:
- Desainer memanfaatkan UX Pilot dan AI Design Reviewer, sementara developer menggunakan v0 dan Bolt untuk membuat prototipe cepat melalui self-service UI prototyping
- Perdebatan terus berlanjut tentang cakupan spec-driven development, tingkat granularitasnya, dan kemampuannya menjadi sumber kebenaran tunggal untuk penyampaian bertahap
- Di tengah antusiasme, sikap lengah terhadap kode yang dihasilkan AI tetap menjadi kekhawatiran umum, mengingatkan bahwa meski AI dapat mempercepat engineering, penilaian manusia tetap mutlak diperlukan
Munculnya antipola AI baru
- Percepatan adopsi AI di seluruh industri membuat antipola yang sedang muncul ikut terlihat ke permukaan bersama praktik yang efektif
- Sambil mengakui kegunaan yang jelas dari konsep seperti self-service disposable UI prototyping dengan GenAI, ada pula pengakuan atas potensinya mendorong organisasi ke antipola Shadow IT yang dipercepat AI
- Ketika MCP (Model Context Protocol) mendapat sorotan, banyak tim terjebak dalam antipola konversi API-ke-MCP yang naif
- Efektivitas solusi Text-to-SQL belum memenuhi ekspektasi awal, dan sikap lengah terhadap kode yang dihasilkan AI tetap menjadi kekhawatiran yang relevan
- Bahkan dalam praktik baru seperti spec-driven development, ada risiko kembali ke antipola rekayasa perangkat lunak tradisional
— khususnya kecenderungan pada spesifikasi awal yang berlebihan dan rilis big-bang
- Bahkan dalam praktik baru seperti spec-driven development, ada risiko kembali ke antipola rekayasa perangkat lunak tradisional
- Karena GenAI berkembang dengan kecepatan dan skala yang belum pernah terjadi sebelumnya, antipola baru diperkirakan akan muncul dengan cepat
- Tim perlu tetap waspada terhadap pola yang pada awalnya tampak efektif tetapi seiring waktu menurunkan kinerja, memperlambat umpan balik, merusak adaptabilitas, atau mengaburkan akuntabilitas
ThoughtWorks Technology Radar Volume 33
[Techniques]
Adopt
1. Continuous compliance
- Praktik untuk memastikan proses pengembangan perangkat lunak dan teknologi terus memenuhi standar regulasi dan keamanan melalui otomatisasi
- Mengintegrasikan alat policy-as-code seperti Open Policy Agent, serta menghasilkan SBOM dalam pipeline CD untuk mendeteksi dan menyelesaikan masalah kepatuhan sejak tahap awal sesuai panduan SLSA
- Dengan mengodekan aturan dan praktik terbaik, standar dapat ditegakkan secara konsisten di seluruh tim tanpa menciptakan bottleneck
- Dengan meningkatnya risiko sikap lengah terhadap kode yang dihasilkan AI, menanamkan kepatuhan ke dalam proses pengembangan menjadi lebih penting dari sebelumnya
2. Curated shared instructions for software teams
- Untuk tim yang secara aktif menggunakan AI dalam delivery perangkat lunak, pendekatannya bergeser dari prompting individual ke instruksi yang dikurasi
- Cara implementasi yang paling intuitif adalah dengan meng-commit file instruksi seperti AGENTS.md langsung ke repositori proyek
- Sebagian besar alat coding AI seperti Cursor, Windsurf, dan Claude Code mendukung berbagi instruksi melalui custom slash command atau workflow
- Begitu prompt ditingkatkan, seluruh tim langsung mendapatkan manfaatnya, memastikan akses yang konsisten ke instruksi AI terbaik
3. Pre-commit hooks
- Git hooks sudah ada sejak lama, tetapi masih belum dimanfaatkan secara memadai
- Munculnya coding berbantuan AI dan coding berbasis agen meningkatkan risiko meng-commit rahasia atau kode bermasalah secara tidak sengaja
- Meski ada banyak mekanisme verifikasi kode seperti continuous integration, hook pre-commit adalah pengaman sederhana dan efektif yang perlu diadopsi lebih banyak tim
- Praktik terbaiknya adalah menjaganya tetap minimal dan terfokus pada risiko yang paling efektif ditangkap pada tahap workflow ini, seperti pemindaian rahasia
4. Menggunakan GenAI untuk memahami codebase legacy
- Penggunaan GenAI untuk memahami codebase legacy sangat mempercepat pemahaman terhadap sistem kompleks berskala besar
- Alat seperti Cursor, Claude Code, Copilot, Windsurf, Aider, Cody, Swimm, Unblocked, dan PocketFlow-Tutorial-Codebase-Knowledge membantu memunculkan aturan bisnis, merangkum logika, dan mengidentifikasi dependensi
- Jika digunakan bersama framework terbuka dan prompting LLM secara langsung, waktu yang dibutuhkan untuk memahami codebase legacy dapat dipangkas secara drastis
- Upaya penyiapan untuk pendekatan tingkat lanjut seperti GraphRAG bervariasi, terutama tergantung pada ukuran dan kompleksitas codebase yang dianalisis, tetapi dampaknya terhadap produktivitas konsisten dan signifikan
Trial
5. AGENTS.md
- Format umum untuk memberikan instruksi kepada agen coding AI yang bekerja dalam sebuah proyek
- Pada dasarnya ini adalah file README untuk agen, dan tidak memiliki field atau format wajib selain Markdown
- Bergantung pada kemampuan agen coding berbasis LLM untuk menafsirkan instruksi yang ditulis dan dapat dibaca manusia
- Penggunaan yang umum mencakup tips penggunaan alat dalam lingkungan coding, panduan pengujian, dan praktik yang disukai untuk pengelolaan commit
6. AI untuk migrasi kode
- Migrasi kode hadir dalam berbagai bentuk, mulai dari penulisan ulang bahasa hingga upgrade dependensi atau framework, dan sering kali memerlukan pekerjaan manual selama berbulan-bulan
- Tim upgrade versi .NET framework bereksperimen menggunakan AI untuk mempersingkat proses
- Sebelumnya digunakan alat refaktorisasi deterministik berbasis aturan seperti OpenRewrite, karena AI saja mahal dan percakapannya mudah melenceng
- Alih-alih mendelegasikan seluruh upgrade, proses dipecah menjadi langkah-langkah yang lebih kecil dan dapat diverifikasi seperti analisis error kompilasi, pembuatan diff migrasi, dan validasi berulang pada pengujian
- Contoh industri seperti migrasi int32-ke-int64 berskala besar milik Google juga mencerminkan tren serupa
7. Delta Lake liquid clustering
- Teknik untuk tabel Delta Lake yang berfungsi sebagai alternatif untuk partisi dan Z-ordering
- Secara historis, optimasi performa baca tabel Delta memerlukan pendefinisian partisi dan kunci Z-order saat membuat tabel berdasarkan pola query yang diperkirakan
- liquid clustering menggunakan algoritme berbasis pohon yang mengelompokkan data berdasarkan kunci yang ditentukan
- Dapat diubah secara bertahap tanpa menulis ulang semua data, sehingga memberikan fleksibilitas yang lebih besar untuk mendukung berbagai pola query
- Databricks Runtime for Delta Lake mendukung liquid clustering otomatis dengan menganalisis workload query sebelumnya, mengidentifikasi kolom optimal, dan mengelompokkan data sesuai hasil tersebut
8. Prototyping UI swalayan dengan GenAI
- Alat seperti Claude Code, Figma Make, Miro AI, dan v0 memungkinkan manajer produk membuat prototipe interaktif yang bisa diuji pengguna langsung dari prompt teks
- Alih-alih membuat wireframe secara manual, tim dapat menghasilkan artefak HTML, CSS, dan JS yang fungsional dalam hitungan menit
- Prototipe "sekali pakai" ini menukar kerapian dengan pembelajaran cepat, sehingga ideal untuk validasi awal selama design sprint
- Fidelity yang lebih tinggi dapat memicu fokus yang keliru pada detail atau ekspektasi yang tidak realistis terhadap upaya produksi, sehingga framing yang jelas dan pengelolaan ekspektasi menjadi penting
9. Structured output dari LLM
- Praktik membatasi LLM agar menghasilkan respons dalam format yang telah ditentukan sebelumnya seperti JSON atau class pemrograman tertentu
- Mengubah teks LLM yang umumnya tidak dapat diprediksi menjadi kontrak data yang dapat dibaca mesin dan deterministik, sehingga penting untuk membangun aplikasi tingkat produksi yang andal
- Pendekatannya beragam, mulai dari formatting berbasis prompt yang sederhana dan structured outputs bawaan model hingga metode constrained decoding yang lebih kuat menggunakan alat seperti Outlines dan Instructor
- Berhasil digunakan untuk mengekstrak data kompleks dan tidak terstruktur dari berbagai jenis dokumen, lalu mengubahnya menjadi JSON terstruktur untuk logika bisnis downstream
10. TCR (Test && Commit || Revert)
- Workflow pemrograman turunan dari test-driven development yang mendorong langkah-langkah yang sangat kecil dan berkelanjutan melalui aturan sederhana
- Setelah setiap perubahan, jika tes lulus maka perubahan di-commit, dan jika gagal maka perubahan dikembalikan
- Implementasinya sederhana karena hanya perlu mendefinisikan skrip yang mengotomatiskan siklus ini di dalam codebase
- TCR, yang pertama kali diperkenalkan dalam artikel resmi Kent Beck, memperkuat praktik coding positif seperti YAGNI dan KISS
Assess
11. Pengujian UI bertenaga AI
- Dalam Radar sebelumnya, pengujian UI berbasis AI terutama berfokus pada exploratory testing, dan disebutkan bahwa sifat non-deterministik LLM dapat menyebabkan ketidakstabilan
- Dengan munculnya MCP, framework pengujian UI utama seperti Playwright dan Selenium mulai mengadopsi server MCP mereka sendiri (playwright-mcp, mcp-selenium)
- Dengan menyediakan otomasi browser yang andal melalui teknologi native, asisten coding dapat membuat pengujian UI yang dapat diandalkan di Playwright atau Selenium
- Mereka antusias dengan perkembangan seperti Playwright Agents pada rilis Playwright terbaru dan berharap akan muncul panduan yang lebih praktis serta pengalaman lapangan
12. Menambatkan coding agent ke aplikasi referensi
- Sebelumnya kami pernah membahas pola tailored service templates, yang membantu organisasi yang mengadopsi microservices melakukan bootstrap layanan baru dan berintegrasi mulus dengan infrastruktur yang sudah ada
- Seiring waktu, saat dependensi, framework, dan pola arsitektur baru bermunculan, code drift antara template ini dan layanan yang sudah ada cenderung meningkat
- Di era coding agent, mereka bereksperimen dengan anchoring coding agents to a reference application untuk menjaga praktik terbaik dan konsistensi arsitektur
- Server Model Context Protocol (MCP) dapat mengekspos baik kode template referensi maupun commit diff sehingga agent bisa mendeteksi drift dan mengusulkan perbaikan
13. Context engineering
- Perancangan dan optimasi sistematis atas informasi yang diberikan ke LLM selama penalaran agar keluaran yang diinginkan dapat dihasilkan secara konsisten
- Mencakup penataan, pemilihan, dan pengurutan elemen konteks seperti prompt, data yang diambil, memori, instruksi, dan sinyal lingkungan
- Berbeda dari prompt engineering yang hanya berfokus pada susunan kata dalam prompt, context engineering mempertimbangkan keseluruhan komposisi konteks
- Saat ini, engineer menggunakan beragam teknik terpisah yang bisa dikelompokkan ke dalam tiga area: Context setup, Context management for long-horizon tasks, Dynamic information retrieval
14. GenAI untuk forward engineering
- Teknik yang sedang berkembang untuk memodernisasi sistem legacy melalui deskripsi codebase legacy yang dihasilkan AI
- Memperkenalkan langkah eksplisit yang berfokus pada apa yang dilakukan kode legacy (spesifikasi), sambil secara sengaja menyembunyikan bagaimana implementasinya saat ini dibuat
- Berkaitan dengan spec-driven development, tetapi diterapkan secara khusus untuk modernisasi legacy
- Mengikuti loop reverse-engineering → design/solutioning → forward-engineering, baik manusia maupun AI agent dapat bernalar pada level yang lebih tinggi sebelum berkomitmen ke implementasi
15. GraphQL sebagai pola akses data untuk LLM
- Pendekatan yang sedang berkembang untuk menciptakan lapisan akses data yang seragam dan ramah model guna meningkatkan context engineering
- Memungkinkan data terstruktur dan dapat di-query diekspos tanpa memberi model akses langsung ke database
- Tidak seperti REST API yang memerlukan endpoint atau filter baru untuk setiap use case, GraphQL memungkinkan model mengambil hanya data yang dibutuhkan
- Skema GraphQL yang terdefinisi dengan baik menyediakan metadata yang dapat digunakan LLM untuk bernalar tentang entitas dan relasi yang tersedia
16. Knowledge flows lebih penting daripada knowledge stocks
- Mereka sering mendapat pertanyaan tentang “bagaimana meningkatkan cara berbagi informasi antartim”
- Konsep knowledge flows and knowledge stocks, sebuah sudut pandang yang dipinjam dari pemikiran sistem, dinilai berharga
- Konsep ini mendorong organisasi untuk melihat pengetahuan sebagai sebuah sistem — stock mewakili pengetahuan yang terakumulasi, sedangkan flow menunjukkan bagaimana pengetahuan bergerak dan berevolusi di dalam organisasi
- Meningkatkan flow pengetahuan eksternal ke dalam organisasi cenderung mendorong inovasi, dan membangun communities of practice adalah cara yang telah terbukti untuk memperbaiki flow
17. LLM sebagai juri
- Penggunaan LLM sebagai penilai untuk mengevaluasi keluaran sistem lain (umumnya generator berbasis LLM) mendapat perhatian karena potensinya menghadirkan evaluasi yang skalabel dan otomatis dalam AI generatif
- Untuk mencerminkan kompleksitas dan risiko yang baru dikenali, blip ini dipindahkan dari Trial ke Assess
- Evaluasi rentan terhadap position bias, verbosity bias, dan robustness yang rendah; masalah yang lebih serius adalah scaling contamination
- Untuk mengatasi kelemahan ini, mereka mengeksplorasi teknik yang ditingkatkan seperti LLMs as a jury (menggunakan beberapa model untuk mencapai konsensus) atau penalaran chain-of-thought selama evaluasi
18. On-device information retrieval
- Teknik yang memungkinkan pencarian, pemahaman konteks, dan retrieval-augmented generation (RAG) berjalan sepenuhnya di perangkat pengguna (mobile, desktop, atau edge device)
- Teknik ini memprioritaskan privasi dan efisiensi komputasi dengan menggabungkan database lokal yang ringan dan model yang dioptimalkan untuk inferensi di perangkat
- Implementasi yang menjanjikan adalah kombinasi sqlite-vec (ekstensi SQLite yang mendukung pencarian vektor di dalam database tersemat) dan EmbeddingGemma (model embedding 300 juta parameter berbasis arsitektur Gemma 3)
- Disarankan untuk dievaluasi pada aplikasi local-first serta use case lain yang menuntut kedaulatan data, latensi rendah, dan privasi
19. SAIF
- SAIF (Secure AI Framework) adalah framework yang dikembangkan Google untuk menyediakan panduan praktis dalam mengelola risiko keamanan AI
- Framework ini secara sistematis menangani ancaman umum seperti data poisoning dan prompt injection melalui peta risiko yang jelas, analisis komponen, dan strategi mitigasi praktis
- Fokusnya pada risiko yang terus berkembang dalam pembangunan sistem agent sangat tepat waktu dan bernilai
- Framework ini menyediakan playbook yang ringkas dan dapat ditindaklanjuti untuk memperkuat praktik keamanan dalam penggunaan LLM dan aplikasi berbasis AI
20. Service mesh tanpa sidecar
- Karena biaya dan kompleksitas operasional service mesh berbasis sidecar terus berlanjut, mereka antusias melihat munculnya opsi service mesh tanpa sidecar seperti Istio ambient mode
- Ambient mode memperkenalkan arsitektur berlapis yang memisahkan concern di antara dua komponen utama: proxy L4 per node (ztunnel) dan proxy L7 per namespace (Waypoint proxy)
- ztunnel memastikan trafik L3 dan L4 dikirim secara efisien dan aman, mengambil sertifikat untuk semua identitas pada node, serta menangani pengalihan trafik ke workload yang mendukung ambient
- Waypoints proxy adalah komponen opsional dalam ambient mode yang mengaktifkan fitur Istio yang lebih kaya seperti manajemen trafik, keamanan, dan visibilitas
21. Small language models
- Mengamati perkembangan small language models (SLMs) yang konsisten di beberapa volume Technology Radar
- Meningkatnya minat terhadap pembangunan solusi agen menambah bukti bahwa SLM dapat menjalankan AI agen secara efisien
- Sebagian besar workflow agen saat ini berfokus pada tugas yang sempit dan berulang yang tidak memerlukan penalaran tingkat lanjut, sehingga cocok untuk SLM
- Perkembangan berkelanjutan SLM seperti Phi-3, SmolLM2, dan DeepSeek menyediakan kapabilitas yang memadai untuk tugas-tugas ini
22. Spec-driven development
- Pendekatan yang sedang muncul untuk workflow coding berbantuan AI, dengan definisi istilah yang masih terus berkembang
- Umumnya merujuk pada workflow yang dimulai dari spesifikasi fitur yang terstruktur, lalu dipecah melalui beberapa tahap menjadi bagian yang lebih kecil, solusi, dan tugas
- Kiro dari Amazon memandu pengguna melalui tiga tahap workflow: requirements, design, dan pembuatan tugas
- spec-kit dari GitHub mengikuti proses tiga tahap serupa, tetapi menambahkan orkestrasi yang lebih kaya, prompt yang dapat dikonfigurasi, dan "constitution" yang mendefinisikan prinsip-prinsip tetap yang harus selalu diikuti
23. Team of coding agents
- Teknik di mana pengembang mengorkestrasi beberapa agen coding AI, masing-masing memiliki peran khusus seperti architect, back-end specialist, dan tester
- Alat seperti Claude Code, Roo Code, dan Kilo Code mendukung subagen dan beberapa mode operasi
- Berdasarkan prinsip yang telah terbukti bahwa pemberian peran dan persona tertentu kepada LLM meningkatkan kualitas output, hasil yang lebih baik dapat dicapai dengan mengoordinasikan beberapa agen berbasis peran alih-alih bergantung pada satu agen serbaguna
- Menandai pergeseran menuju pipeline pengembangan berbantuan AI multi-tahap yang terorkestrasi
24. Topology-aware scheduling
- GPU dan LPU bukan lagi perangkat yang berdiri sendiri, melainkan jaringan akselerator yang terikat erat, dengan performa yang bergantung pada penempatan dan topologi
- Dalam sistem skala rak seperti NVL72 dari NVIDIA, 72 GPU berbagi lebih dari 13TB VRAM dan beroperasi sebagai satu akselerator, tetapi ketika workload melintasi switch island, operasi kolektif berubah menjadi bottleneck
- Arsitektur Groq yang dijadwalkan oleh software saat compile time mengasumsikan perpindahan data yang deterministik, dan penjadwalan acak merusak asumsi serta prediktabilitas ini
- Scheduler naif yang mengabaikan topologi sering kali menyebarkan workload multi-GPU secara sembarangan, sehingga menurunkan waktu per tahap dan efisiensi
25. Toxic flow analysis for AI
- Lelucon yang sudah akrab bahwa huruf S dalam MCP berarti "security" menyembunyikan masalah yang sangat nyata
- Ketika agen saling berkomunikasi melalui pemanggilan tool atau API, mereka dapat dengan cepat menghadapi apa yang dikenal sebagai lethal trifecta: akses ke data pribadi, paparan terhadap konten yang tidak tepercaya, dan kemampuan berkomunikasi ke luar
- Agen yang memiliki ketiganya sangat rentan, dan karena LLM cenderung mengikuti instruksi dalam input, konten dari sumber yang tidak tepercaya yang menyertakan instruksi untuk mengekstrak data dapat dengan mudah menyebabkan kebocoran data
- toxic flow analysis memeriksa flow graph sistem agen untuk mengidentifikasi jalur data yang berpotensi tidak aman agar diselidiki lebih lanjut
Hold
26. AI-accelerated shadow IT
- AI menurunkan hambatan bagi non-coder untuk membangun dan mengintegrasikan software sendiri alih-alih menunggu departemen IT
- Antusias terhadap potensi yang dibuka oleh hal ini, tetapi tetap waspada terhadap tanda-tanda awal AI-accelerated shadow IT
- Platform otomatisasi workflow no-code kini mendukung integrasi API AI, misalnya OpenAI atau Anthropic, sehingga menggoda untuk memakai AI sebagai duct tape guna menghubungkan integrasi yang sebelumnya tidak mungkin dilakukan
- Pada saat yang sama, AI coding assistant menjadi semakin agentic sehingga non-coder dengan pelatihan dasar dapat membangun aplikasi utilitas internal
27. Capacity-driven development
- Kunci keberhasilan praktik pengembangan software modern adalah mempertahankan fokus pada aliran kerja
- Tim stream-aligned berfokus pada satu aliran bernilai seperti user journey atau produk agar dapat memberikan nilai end-to-end secara efisien
- Namun, ada tren yang mengkhawatirkan menuju capacity-driven development, ketika tim yang diselaraskan dengan cara ini mengambil fitur dari produk atau stream lain saat mereka memiliki kapasitas cadangan
- Dalam jangka pendek ini mungkin terlihat efisien, tetapi itu adalah optimasi lokal yang paling cocok untuk menangani lonjakan permintaan, dan bila dinormalisasi akan meningkatkan beban kognitif serta utang teknis
28. Complacency with AI-generated code
- Seiring AI coding assistant dan agen semakin mendapat perhatian, data dan riset yang menyoroti kekhawatiran tentang complacency with AI-generated code juga meningkat
- Ada cukup banyak bukti bahwa alat-alat ini dapat mempercepat pengembangan, tetapi riset menunjukkan bahwa kualitas kode dapat menurun seiring waktu
- Dalam riset 2024 dari GitClear, kode duplikat dan code churn meningkat lebih besar dari yang diperkirakan, sementara aktivitas refactoring dalam riwayat commit menurun
- Riset Microsoft terhadap knowledge worker menunjukkan bahwa rasa percaya diri yang didorong AI sering muncul dengan mengorbankan pemikiran kritis
29. Naive API-to-MCP conversion
- Organisasi ingin mengonversi API internal mereka ke Model Context Protocol (MCP) secara mulus dan langsung agar agen AI dapat berinteraksi dengan sistem yang sudah ada
- Ada semakin banyak alat seperti MCP link dan FastAPI-MCP yang berupaya mendukung konversi ini
- Menentang naive API-to-MCP conversion seperti ini, karena API umumnya dirancang untuk pengembang manusia dan terdiri dari operasi atomik yang terperinci, yang ketika dirangkai oleh AI dapat menyebabkan penggunaan token berlebihan, polusi konteks, dan penurunan performa agen
- API seperti ini, terutama API internal, juga sering mengekspos data sensitif atau memungkinkan tindakan yang destruktif
30. Tim data engineering yang berdiri sendiri
- Mengorganisasi tim data engineering terpisah yang mengembangkan dan memiliki pipeline serta produk data secara terpisah dari domain bisnis stream-aligned yang mereka layani adalah antipola yang berujung pada inefisiensi dan hasil bisnis yang lemah
- Struktur ini mengulang kesalahan lama berupa pemisahan kapabilitas DevOps, pengujian, atau deployment, sehingga menciptakan silo pengetahuan, bottleneck, dan pemborosan upaya
- Tanpa kolaborasi yang erat, data engineer sering kekurangan konteks bisnis dan domain yang diperlukan untuk merancang produk data yang bermakna, sehingga membatasi adopsi maupun nilainya
- Sebagai gantinya, tim platform data harus berfokus pada pemeliharaan infrastruktur bersama, sementara tim bisnis lintas fungsi membangun dan memiliki data products mereka sendiri sesuai prinsip data mesh
31. Text to SQL
- Text to SQL menggunakan LLM untuk menerjemahkan bahasa alami menjadi SQL yang dapat dijalankan, tetapi keandalannya sering belum memenuhi ekspektasi
- Blip ini dipindahkan ke Hold agar tidak direkomendasikan untuk digunakan dalam workflow tanpa pengawasan — misalnya saat output disembunyikan atau kueri buatan pengguna yang terotomatisasi dikonversi secara dinamis
- Dalam kasus seperti ini, LLM sering berhalusinasi karena pemahaman skema atau domain yang terbatas, sehingga menimbulkan risiko pengambilan data yang salah atau modifikasi data yang tidak disengaja
- Untuk agentic business intelligence, hindari akses database langsung dan sebagai gantinya gunakan abstraksi data terkelola atau semantic layer seperti Cube atau dbt's semantic layer
[Platforms]
Adopt
32. Arm in the cloud
- Arm compute instances di cloud semakin populer dalam beberapa tahun terakhir berkat efisiensi biaya dan energi dibandingkan instance tradisional berbasis x86
- Penyedia cloud utama termasuk AWS, Azure, dan GCP kini menawarkan opsi Arm yang kuat
- Banyak tim telah berhasil memigrasikan workload seperti microservices, database open source, bahkan komputasi berkinerja tinggi ke Arm hanya dengan perubahan kode minimal dan sedikit penyesuaian script build
- Alat modern seperti multi-arch Docker images menyederhanakan build dan deployment di lingkungan Arm maupun x86
Trial
33. Apache Paimon
- Apache Paimon adalah format data lake open source yang dirancang untuk memungkinkan lakehouse architecture
- Terintegrasi mulus dengan engine pemrosesan seperti Flink dan Spark, sehingga mendukung pekerjaan streaming maupun batch
- Keunggulan utama arsitektur Paimon adalah perpaduan antara format data lake standar dan struktur LSM (log-structured merge tree)
- Kombinasi ini mengatasi tantangan tradisional berupa update berperforma tinggi dan pembacaan berlatensi rendah pada data lake
34. DataDog LLM Observability
- Datadog LLM Observability menyediakan pelacakan, pemantauan, dan diagnostik end-to-end untuk workflow aplikasi large language model dan agen
- Ia memetakan setiap prompt, panggilan alat, dan langkah perantara ke span dan trace, melacak latensi, penggunaan token, error, dan metrik kualitas, serta terintegrasi dengan rangkaian produk APM dan observabilitas Datadog yang lebih luas
- Organisasi yang sudah menggunakan Datadog dan terbiasa dengan struktur biayanya mungkin akan menemukan bahwa kapabilitas observabilitas LLM adalah cara yang intuitif untuk memperoleh visibilitas atas workload AI, dengan asumsi mereka dapat melakukan instrumentasi pada workload tersebut
- Konfigurasi dan penggunaan instrumentasi LLM memerlukan kehati-hatian serta pemahaman yang kuat atas workload dan implementasinya, dan kolaborasi erat antara data engineer dan staf operasional direkomendasikan saat deployment
35. Delta Sharing
- Delta Sharing adalah standar dan protokol terbuka untuk berbagi data lintas platform secara aman yang dikembangkan oleh Databricks dan Linux Foundation
- Bersifat cloud-independent dan memungkinkan organisasi membagikan data langsung di berbagai penyedia cloud maupun lokasi on-premises tanpa perlu menyalin atau mereplikasi data
- Dengan menggunakan REST API sederhana, sistem ini menerbitkan URL presigned jangka pendek agar penerima dapat mengambil dataset berskala besar menggunakan alat seperti pandas, Spark, atau Power BI
- Mendukung berbagi tabel data, view, model AI, dan notebook, serta menyediakan tata kelola terpusat dan audit yang kuat
36. Dovetail
- Dovetail platform mengatasi tantangan berkelanjutan dalam pengelolaan data riset kualitatif yang tersebar
- Menyediakan repositori terpusat untuk wawancara pengguna, transkrip, dan insight, sehingga mengubah data mentah menjadi aset yang terstruktur dan dapat dianalisis
- Sangat berguna khususnya dalam workflow product discovery untuk membuat jejak bukti yang secara langsung menghubungkan kutipan pelanggan dan tema hasil sintesis dengan hipotesis produk serta ROI yang diperkirakan
- Dengan demikian, Dovetail memperkuat peran data kualitatif dalam pengambilan keputusan produk
37. Langdock
- Langdock adalah platform bagi organisasi untuk mengembangkan dan menjalankan agen AI generatif serta workflow untuk operasi internal
- Menyediakan lingkungan terpadu dengan asisten chat internal, lapisan API untuk terhubung ke banyak LLM, serta alat pembuat workflow agen yang terintegrasi dengan sistem seperti Slack, Confluence, dan Google Drive
- Platform ini menawarkan opsi hosting on-premises dan di EU dengan standar kepatuhan enterprise, sehingga menekankan kedaulatan data
- Organisasi yang menerapkan Langdock tetap harus memberi perhatian cermat pada tata kelola data dan menggunakan teknik seperti toxic flow analysis untuk mencegah lethal trifecta
38. LangSmith
- LangSmith adalah platform hosted dari tim LangChain yang menyediakan visibilitas, pelacakan, dan evaluasi untuk aplikasi LLM
- Platform ini menangkap trace detail dari chain, alat, dan prompt sehingga tim dapat melakukan debug dan mengukur perilaku model, melacak regresi performa, serta mengelola dataset evaluasi
- LangSmith adalah platform SaaS proprietari dengan dukungan terbatas untuk workflow non-LangChain, sehingga paling menarik bagi tim yang sudah berinvestasi dalam ekosistem tersebut
- Dukungan terintegrasi untuk evaluasi prompt dan eksperimen terasa lebih matang, khususnya dibandingkan alternatif open source seperti Langfuse
39. Model Context Protocol (MCP)
- Model Context Protocol (MCP) adalah standar terbuka yang mendefinisikan cara aplikasi dan agen LLM terintegrasi dengan sumber data serta alat eksternal
- MCP dibedakan dari protokol Agent2Agent (A2A) yang mengelola komunikasi antaragen, dengan fokus MCP pada konteks dan akses alat
- Sejak blip sebelumnya, adopsi MCP meningkat tajam sehingga perusahaan besar seperti JetBrains (IntelliJ) dan Apple bergabung ke ekosistem bersama framework baru seperti FastMCP
- Standar pratinjau MCP Registry kini mendukung penemuan alat publik dan proprietari
40. n8n
- n8n adalah platform otomasi workflow berlisensi fair-code yang mirip dengan Zapier atau Make (sebelumnya Integromat), tetapi dibangun untuk developer yang menginginkan opsi self-hosted, dapat diperluas, dan bisa dikendalikan dengan kode
- Menawarkan pendekatan low-code dan visual untuk membuat workflow dibanding Apache Airflow, sambil tetap mendukung custom code dalam JavaScript atau Python
- Use case utamanya adalah mengintegrasikan berbagai layanan ke dalam workflow otomatis, tetapi juga dapat menghubungkan LLM dengan sumber data, memori, dan alat yang dapat dikonfigurasi
- Banyak tim menggunakan n8n untuk dengan cepat membuat prototipe workflow agen yang dipicu oleh aplikasi chat atau webhook, sering kali memanfaatkan fitur import dan export untuk membuat workflow dengan bantuan AI
41. OpenThread
- OpenThread adalah implementasi open source dari protokol jaringan Thread yang dikembangkan oleh Google
- Mendukung semua kemampuan utama spesifikasi Thread, termasuk layer jaringan seperti IPv6, 6LoWPAN, dan LR-WPAN, serta kemampuan jaringan mesh yang memungkinkan perangkat berfungsi sebagai node dan border router
- OpenThread berjalan di berbagai platform hardware dengan memanfaatkan lapisan abstraksi yang fleksibel dan hook integrasi yang memungkinkan vendor mengintegrasikan radio serta kemampuan kriptografi mereka sendiri
- Protokol yang matang ini banyak digunakan dalam produk komersial dan, berdasarkan pengalaman kami, dapat diandalkan untuk membangun beragam solusi IoT, dari perangkat hemat daya berbasis baterai hingga jaringan sensor mesh skala besar
Assess
42. AG-UI Protocol
- AG-UI adalah protokol dan library terbuka yang dirancang untuk menstandarkan antarmuka pengguna yang kaya serta komunikasi antaragen
- Berfokus pada agen yang langsung berhadapan dengan pengguna, dan digeneralisasi ke semua frontend dan backend melalui integrasi middleware serta klien
- Protokol ini mendefinisikan cara yang konsisten bagi agen backend untuk berkomunikasi dengan aplikasi frontend, sehingga memungkinkan kolaborasi real-time yang stateful antara AI dan pengguna manusia
- Mendukung beberapa protokol transport termasuk SSE dan WebSockets, serta menyediakan tipe event terstandarisasi yang merepresentasikan berbagai status eksekusi agen
43. Agent-to-Agent (A2A) Protocol
- Agent2Agent (A2A) adalah protokol yang mendefinisikan standar untuk komunikasi dan interaksi antaragen dalam workflow multi-agen yang kompleks
- Menggunakan Agent Cards untuk menjelaskan elemen inti komunikasi antaragen, termasuk spesifikasi untuk penemuan kemampuan dan transfer, serta skema keamanan
- A2A melengkapi Model Context Protocol (MCP) dengan berfokus pada komunikasi antaragen tanpa mengekspos detail internal seperti status, memori, atau internal agen
- Protokol ini mendorong best practice seperti pendekatan asynchronous-first untuk tugas yang berjalan lama, streaming response untuk pembaruan bertahap, dan transport aman menggunakan HTTPS, autentikasi, serta otorisasi
44. Amazon S3 Vectors
- Amazon S3 Vectors memperluas object storage S3 dengan kemampuan vektor native untuk menyediakan penyimpanan vektor bawaan dan pencarian kemiripan
- Terintegrasi mulus dengan ekosistem AWS termasuk Amazon Bedrock dan OpenSearch, serta menyediakan fitur tambahan seperti pemfilteran metadata dan governance melalui IAM
- Masih dalam status pratinjau dan memiliki keterbatasan, tetapi proposisi nilainya menarik — pendekatan penyimpanan vektor yang hemat biaya dan mudah diakses ini cocok untuk berbagai aplikasi yang melibatkan volume data besar dan ketika latensi rendah bukan perhatian utama
45. Ardoq
- Ardoq adalah platform enterprise architecture (EA) yang memungkinkan organisasi membangun, mengelola, dan memperluas basis pengetahuan arsitektur agar dapat merencanakan masa depan dengan lebih efektif
- Berbeda dari dokumentasi statis tradisional yang cenderung mengalami drift dan terkotak-kotak, pendekatan berbasis data Ardoq mengambil informasi dari sistem yang ada untuk membuat knowledge graph dinamis yang tetap mutakhir seiring evolusi lanskap
- Fitur yang sangat berguna adalah Ardoq Scenarios, yang memungkinkan pemodelan dan pendefinisian secara visual atas kondisi masa depan what-if dengan pendekatan branching dan merging mirip Git
- Organisasi yang mengejar transformasi arsitektur sebaiknya mengevaluasi platform EA khusus seperti Ardoq karena potensinya untuk menyederhanakan dan mempercepat proses ini
46. CloudNativePG
- CloudNativePG adalah Kubernetes Operator yang menyederhanakan hosting dan pengelolaan klaster PostgreSQL high-availability di Kubernetes
- Menjalankan layanan stateful seperti PostgreSQL di Kubernetes bisa kompleks karena membutuhkan pemahaman mendalam tentang Kubernetes dan replikasi PostgreSQL
- CloudNativePG mengabstraksikan sebagian besar kompleksitas ini dengan memperlakukan seluruh klaster PostgreSQL sebagai satu resource deklaratif tunggal yang dapat dikonfigurasi
- Menyediakan arsitektur primary/standby yang mulus menggunakan native streaming replication, serta langsung menghadirkan kemampuan high availability seperti self-healing, failover otomatis yang mempromosikan replika paling sinkron, dan pembuatan ulang replika yang gagal secara otomatis
47. Coder
- Coder adalah platform untuk memprovisikan lingkungan coding terstandarisasi dengan cepat, sesuai praktik development environments in the cloud yang telah dijelaskan sebelumnya
- Dibandingkan alat serupa seperti Gitpod (kini direbrand menjadi Ona) dan GitHub Codespaces, Coder menawarkan kontrol lebih besar atas kustomisasi workstation melalui Terraform
- Workstation dihosting pada infrastruktur milik sendiri di cloud atau data center, bukan di server vendor
- Pendekatan ini memberi fleksibilitas lebih besar, termasuk kemampuan menjalankan agen coding AI dan mengakses sistem internal organisasi
48. Graft
- Graft adalah mesin transactional storage yang memungkinkan sinkronisasi data yang kuat, konsisten, dan efisien di lingkungan edge dan terdistribusi
- Menggunakan lazy replication untuk menyinkronkan data hanya saat diperlukan, partial replication untuk meminimalkan konsumsi bandwidth, dan serializable snapshot isolation untuk memastikan integritas data
- Untuk use case serupa kami pernah menyebut Electric di Radar, tetapi Graft unik karena mengubah object storage menjadi sistem transaksional yang mendukung pembaruan konsisten pada level halaman tanpa memaksakan format data
- Cocok untuk mendukung aplikasi mobile local-first, mengelola sinkronisasi lintas platform yang kompleks, dan berperan sebagai backbone bagi replika stateless di sistem serverless atau embedded
49. groundcover
- groundcover adalah platform observabilitas cloud-native yang mengintegrasikan log, trace, metrik, dan event Kubernetes dalam satu tampilan
- Memanfaatkan eBPF untuk menangkap data observabilitas yang terperinci dengan zero-code instrumentation, tanpa menyisipkan agen atau SDK ke dalam kode aplikasi
- Sensor eBPF groundcover berjalan pada node khusus di setiap cluster yang dipantau, sehingga beroperasi secara independen dari aplikasi yang diamati
- Fitur utamanya mencakup observabilitas tingkat kernel yang mendalam, arsitektur bring-your-own-cloud (BYOC) untuk privasi data, serta model harga yang tidak bergantung pada volume data agar biaya tetap dapat diprediksi
50. Karmada
- Karmada ("Kubernetes Armada") adalah platform untuk mengorkestrasi workload di berbagai cluster Kubernetes, cloud, dan data center
- Banyak tim saat ini menggabungkan alat GitOps seperti Flux atau ArgoCD dengan skrip kustom untuk melakukan deployment ke seluruh cluster, sehingga solusi yang dibuat khusus untuk tujuan ini sangat disambut
- Karmada memanfaatkan API native Kubernetes sehingga aplikasi yang sudah dibangun untuk lingkungan cloud-native tidak perlu diubah
- Menyediakan kemampuan penjadwalan lanjutan untuk manajemen multi-cloud, high availability, pemulihan bencana, dan penjadwalan traffic
51. OpenFeature
- Seiring bisnis berkembang, pengelolaan feature flag sering kali menjadi semakin kompleks, dan tim memerlukan lapisan abstraksi yang melampaui feature toggle paling sederhana
- OpenFeature menyediakan lapisan ini melalui spesifikasi API yang vendor-neutral dan digerakkan komunitas, yang menstandarkan cara feature flag didefinisikan dan digunakan
- CLI-nya menyediakan dukungan luas untuk berbagai definisi skema, mulai dari pengaturan dasar menggunakan environment variable atau konfigurasi in-memory hingga platform yang matang seperti ConfigCat atau LaunchDarkly
- Namun, masih ada satu hal penting yang perlu diperhatikan: tim harus mengelola berbagai categories of flags secara terpisah dan disiplin untuk menghindari penyebaran flag, kompleksitas aplikasi, dan overhead pengujian yang berlebihan
52. Oxide
- Membangun dan mengoperasikan infrastruktur privat itu kompleks, dan ini menjadi salah satu alasan utama mengapa public cloud menjadi pilihan default bagi sebagian besar organisasi
- Namun bagi mereka yang membutuhkannya, Oxide menawarkan alternatif dengan merakit dan mengintegrasikan hardware serta software dari awal
- Menyediakan rack siap pakai yang mencakup komputasi, jaringan, dan penyimpanan yang menjalankan software sistem yang sepenuhnya terintegrasi
- Tim dapat mengelola resource melalui API IaaS Oxide menggunakan Terraform dan alat otomatisasi lainnya — sesuatu yang disebut Oxide sebagai infrastruktur elastis on-premises
53. Restate
- Restate adalah platform persistent execution yang dirancang untuk menyelesaikan tantangan sistem terdistribusi yang kompleks saat membangun aplikasi stateful dan fault-tolerant
- Melalui execution journaling, setiap langkah dicatat untuk menjamin fault tolerance, pemulihan yang andal, dan komunikasi exactly-once antar layanan
- Keunggulan arsitektur utama platform ini adalah pemisahan logika aplikasi ke dalam tiga jenis layanan persisten: Basic Services untuk fungsi stateless, Virtual Objects untuk memodelkan entitas stateful yang konkuren, dan Workflows untuk mengorkestrasi proses kompleks multilangkah
- Sedang mengevaluasi Restate secara cermat dalam sistem asuransi berskala besar dan sejauh ini sangat puas dengan performanya
54. SkyPilot
- SkyPilot adalah platform open-source untuk menjalankan dan menskalakan workload AI di on-premises maupun cloud
- Dikembangkan oleh Sky Computing Lab di UC Berkeley, SkyPilot bertindak sebagai broker cerdas yang secara otomatis mencari dan melakukan provisioning GPU termurah dan yang tersedia di cloud utama serta cluster Kubernetes, sehingga sering kali menurunkan biaya komputasi
- Bagi tim infrastruktur, ia menyederhanakan eksekusi AI di Kubernetes dengan menawarkan fitur seperti kemudahan penggunaan ala Slurm, ketangguhan cloud-native, akses SSH langsung ke pod, gang scheduling, dan dukungan multi-cluster
- Mendukung penskalaan yang mulus untuk workload training maupun inference
55. StarRocks
- StarRocks adalah database analitik yang mendefinisikan ulang business intelligence real-time dengan menggabungkan kecepatan sistem OLAP tradisional dan fleksibilitas data lakehouse modern
- Melalui execution engine yang dioptimalkan dengan SIMD, penyimpanan kolumnar, dan cost-based optimizer yang canggih, ia mencapai latensi kueri di bawah satu detik pada skala besar
- Arsitektur berkinerja tinggi ini memungkinkan pengguna menjalankan analitik kompleks langsung pada format data terbuka seperti Apache Iceberg tanpa pra-komputasi atau penyalinan data
- Ada banyak platform di area ini, tetapi melihat StarRocks sebagai kandidat kuat untuk solusi hemat biaya yang menuntut concurrency ekstrem sekaligus kesegaran data terkini yang konsisten
56. Uncloud
- Uncloud adalah alat orkestrasi dan clustering kontainer ringan yang memungkinkan developer membawa aplikasi Docker Compose ke produksi
- Menawarkan pengalaman sederhana seperti cloud tanpa overhead operasional Kubernetes
- Mewujudkan penskalaan lintas mesin dan deployment tanpa downtime dengan secara otomatis mengonfigurasi jaringan mesh WireGuard yang aman untuk komunikasi, serta menggunakan reverse proxy Caddy untuk HTTPS otomatis dan load balancing
- Keunggulan arsitektur utama Uncloud adalah desainnya yang sepenuhnya terdistribusi, yang menghilangkan kebutuhan akan control plane terpusat dan memastikan operasi cluster tetap berfungsi bahkan jika mesin tertentu offline
[Tools]
Adopt
57. ClickHouse
- ClickHouse adalah database open-source OLAP (online analytical processing) kolumnar terdistribusi untuk analitik real-time
- Telah matang menjadi engine yang sangat performant dan skalabel untuk menangani analisis data berskala besar
- Dengan incremental materialized view, query engine yang efisien, dan kompresi data yang kuat, ia ideal untuk kueri interaktif
- Dukungan bawaan untuk approximate aggregate function memungkinkan kompromi antara akurasi dan performa, yang sangat berguna khususnya untuk analitik high-cardinality
58. NeMo Guardrails
- NeMo Guardrails adalah toolkit open-source dari NVIDIA yang memudahkan penambahan mekanisme keamanan dan kontrol yang dapat diprogram ke aplikasi percakapan berbasis LLM
- Mendefinisikan dan menegakkan aturan perilaku untuk memastikan output aman, tetap pada topik, dan patuh terhadap regulasi
- Developer menggunakan Colang, bahasa khusus tujuan, untuk membuat alur percakapan yang fleksibel, mengelola percakapan, dan menegakkan jalur serta prosedur operasional yang telah ditentukan
- NeMo Guardrails menyediakan API asynchronous-first untuk performa dan dukungan guardrail untuk keamanan konten, keamanan sistem, serta penyelarasan input dan output
59. pnpm
- Sejak Radar sebelumnya, kami terus menerima umpan balik positif dari tim tentang pnpm
- pnpm adalah package manager Node.js yang menawarkan peningkatan performa signifikan dibanding alternatif lain, baik dalam kecepatan maupun efisiensi ruang disk
- Mendukung optimasi tingkat file secara inkremental yang membuat performa semakin baik dengan menautkan paket duplikat dari folder
node_modulesdi berbagai proyek ke satu lokasi tunggal di disk menggunakan hard link - pnpm menjadi pilihan default untuk manajemen paket Node.js karena memberikan feedback loop yang jauh lebih cepat dengan masalah kompatibilitas yang minimal
60. Pydantic
- Pydantic adalah library Python untuk mendefinisikan model data menggunakan type hint standar dan menerapkan skema data saat runtime
- Awalnya, type annotation ditambahkan ke Python untuk analisis statis, tetapi variasinya yang terus bertambah mendorong penggunaan yang lebih luas termasuk validasi runtime
- Dibangun di atas core Rust yang cepat, sehingga menyediakan validasi, parsing, dan serialisasi data yang efisien
- Telah menjadi komponen penting dalam aplikasi LLM dan umumnya digunakan dengan teknik structured output from LLMs untuk mengelola sifat LLM yang tidak dapat diprediksi
Trial
61. AI Design Reviewer
- AI Design Reviewer adalah plugin Figma untuk melakukan audit desain atau evaluasi heuristik dan mengumpulkan umpan balik yang dapat ditindaklanjuti untuk desain yang sudah ada maupun yang baru
- Audit mencakup kritik UX, inkonsistensi UI, kesenjangan aksesibilitas, kualitas konten, dan skenario edge case
- Selain mengidentifikasi masalah, alat ini juga memberikan rekomendasi yang peka terhadap domain untuk membantu tim membangun kosakata desain bersama dan alasan di balik pilihan desain
- Tim menggunakan AI Design Reviewer untuk menganalisis desain lama — mengidentifikasi pengalaman positif yang perlu dipertahankan dan pengalaman negatif yang perlu diperbaiki, sehingga memberi masukan bagi tujuan UX dalam redesain
62. Barman
- Barman (Backup and Recovery Manager) adalah alat open source untuk mengelola backup dan pemulihan bencana server PostgreSQL
- Menyederhanakan pembuatan backup fisik melalui berbagai metode, menatanya dengan katalog yang komprehensif, dan mendukung seluruh proses pemulihan bencana dengan memulihkan backup ke server live melalui kemampuan point-in-time recovery
- Kami mendapati Barman kuat dan mudah digunakan, serta sangat terkesan dengan kecepatan operasi point-in-time recovery selama aktivitas migrasi
- Juga andal untuk backup terjadwal dan mampu menangani konfigurasi penjadwalan dan retensi yang kompleks serta campuran
63. Claude Code
- Claude Code dari Anthropic adalah alat coding AI agentic yang menyediakan antarmuka bahasa alami dan model eksekusi agen untuk merencanakan serta mengimplementasikan workflow multi-langkah yang kompleks
- Meski baru dirilis kurang dari setahun, alat ini sudah diadopsi luas oleh developer di dalam dan di luar Thoughtworks, sehingga ditempatkan di Trial
- Agen coding berbasis konsol seperti Codex CLI dari OpenAI, Gemini CLI dari Google, dan OpenCode yang open source telah dirilis, sementara asisten berbasis IDE seperti Cursor, Windsurf, dan GitHub Copilot kini juga menyertakan mode agen
- Kami melihat tim menggunakannya bukan hanya untuk menulis dan mengubah kode, tetapi juga sebagai agen AI serbaguna untuk mengelola spesifikasi, story, konfigurasi, infrastruktur, dan dokumentasi
64. Cleanlab
- Dalam paradigma AI yang berpusat pada data, meningkatkan kualitas dataset sering kali memberikan peningkatan performa yang lebih besar daripada menyetel model itu sendiri
- Cleanlab adalah library Python open source yang dirancang untuk mengatasi masalah ini, dengan secara otomatis mengidentifikasi masalah data umum seperti pelabelan yang salah, outlier, dan duplikasi pada dataset teks, gambar, tabular, dan audio
- Dibangun berdasarkan prinsip confident learning, Cleanlab memanfaatkan probabilitas prediksi model untuk memperkirakan noise label dan mengukur kualitas data
- Pendekatan yang independen terhadap model ini memungkinkan developer mendiagnosis dan memperbaiki kesalahan dataset, lalu melatih ulang model untuk meningkatkan robustness dan akurasi
65. Context7
- Context7 adalah server MCP yang menangani ketidakakuratan kode yang dihasilkan AI
- Sementara LLM bergantung pada data pelatihan yang usang, Context7 memastikan kode yang dihasilkan akurat, mutakhir, dan spesifik versi untuk library dan framework yang digunakan dalam proyek
- Mengambil dokumentasi terbaru dan contoh kode yang berfungsi langsung dari repositori sumber framework, lalu menyuntikkannya ke jendela konteks LLM pada saat prompt diberikan
- Dalam pengalaman kami, Context7 secara signifikan mengurangi halusinasi kode dan ketergantungan pada data pelatihan yang usang
66. Data Contract CLI
- Data Contract CLI adalah alat command-line open source yang dirancang untuk bekerja dengan spesifikasi Data Contract
- Memungkinkan pembuatan dan pengeditan data contract, dan yang terpenting, memvalidasi data terhadap contract sehingga penting untuk memastikan integritas dan kualitas produk data
- CLI ini menyediakan dukungan luas untuk berbagai definisi skema (Avro, SQL DDL, Open Data Contract Standard, dan lainnya) serta dapat membandingkan berbagai versi contract untuk segera mendeteksi breaking change
- Kami menemukan alat ini sangat berguna, terutama di ranah data mesh, untuk mengoperasionalkan tata kelola contract antar produk data melalui integrasi CI/CD
67. Databricks Assistant
- Databricks Assistant adalah alat percakapan berbasis AI yang terintegrasi langsung ke dalam platform Databricks dan berperan sebagai pair programmer kontekstual bagi para profesional data
- Berbeda dari asisten coding umum, alat ini diuntungkan oleh pemahaman bawaan tentang lingkungan Databricks dan konteks data, termasuk metadata dari Unity Catalog
- Assistant melampaui pembuatan snippet kode dengan kemampuan menulis query SQL dan Python multi-langkah yang kompleks, mendiagnosis error, dan memberikan penjelasan rinci yang spesifik untuk workspace
- Bagi organisasi yang sudah berinvestasi dalam ekosistem Databricks, alat ini dapat mempercepat produktivitas dan menurunkan hambatan masuk untuk pekerjaan data yang kompleks
68. Hoppscotch
- Hoppscotch adalah alat open source ringan untuk pengembangan, debugging, pengujian, dan berbagi API
- Mendukung banyak protokol, termasuk HTTP, GraphQL, dan WebSocket, serta menyediakan klien lintas platform untuk web, desktop, dan lingkungan CLI
- Walau ruang alat API dipenuhi alternatif seperti Postman, Insomnia, dan Bruno, Hoppscotch menonjol berkat footprint yang ringan dan desain yang ramah privasi
- Dengan menghilangkan analitik, menggunakan penyimpanan yang mengutamakan lokal, dan mendukung self-hosting, alat ini menjadi pilihan kuat bagi organisasi yang mencari cara intuitif untuk berbagi skrip API sambil tetap menjaga privasi data yang kuat
69. NVIDIA DCGM Exporter
- NVIDIA DCGM Exporter adalah alat open source yang membantu tim memantau pelatihan GPU terdistribusi dalam skala besar
- Mengubah telemetri proprietary dari NVIDIA Data Center GPU Manager (DCGM) ke format terbuka yang kompatibel dengan sistem pemantauan standar
- Mengekspos metrik real-time penting seperti utilisasi GPU, suhu, daya, jumlah error ECC, baik dari GPU maupun server host
- Visibilitas ini sangat penting bagi organisasi yang melakukan fine-tuning LLM kustom atau menjalankan pekerjaan pelatihan jangka panjang yang intensif GPU
70. RelationalAI
- Ketika sejumlah besar data yang beragam dimasukkan ke Snowflake, relasi unik dan aturan implisit di dalam data tersebut bisa menjadi kabur
- RelationalAI, yang dibangun sebagai Snowflake Native App, memungkinkan tim membangun model canggih yang dapat menangkap konsep bermakna, mendefinisikan entitas bisnis inti, dan menanamkan logika kompleks langsung pada tabel Snowflake
- Melalui Graph Reasoner yang kuat, pengguna dapat membuat, menganalisis, dan memvisualisasikan graf pengetahuan relasional berdasarkan model-model ini
- Bagi organisasi yang mengelola dataset skala besar yang berubah cepat, membangun graf pengetahuan dapat menjadi hal penting untuk pemantauan proaktif serta menghasilkan insight yang lebih kaya dan dapat ditindaklanjuti
71. UX Pilot
- UX Pilot adalah alat AI yang mendukung berbagai tahap proses desain UX, mulai dari wireframing hingga desain visual high-fidelity dan review
- Dapat menerima input teks atau gambar dan secara otomatis menghasilkan layar, flow, dan layout
- Fitur Autoflow membuat transisi user flow, dan Deep Design menghasilkan output yang lebih kaya dan lebih detail
- UX Pilot juga menyertakan plugin Figma untuk mengekspor desain yang dihasilkan agar dapat disempurnakan di dalam alat desain standar
72. v0
- v0 telah berkembang sejak terakhir kali diperkenalkan di Radar
- Kini mencakup mode desain yang memudahkan product manager membuat dan menyesuaikan prototipe UI self-service
- Rilis terbaru memperkenalkan model miliknya sendiri dengan context window besar dan kemampuan multimodal, sehingga v0 dapat menghasilkan dan menyempurnakan UI dari input teks maupun visual
- Tambahan penting lainnya adalah mode agen, yang memungkinkan sistem memecah tugas yang lebih kompleks dan memilih model yang sesuai untuk masing-masing tugas
Assess
73. Augment Code
- Augment Code adalah asisten coding AI yang memberikan dukungan dengan kesadaran konteks mendalam pada codebase berskala besar
- Menonjol melalui context engineering tingkat lanjut yang memungkinkan pembaruan indeks kode yang cepat dan pencarian cepat, bahkan ketika kode sering berubah
- Augment mendukung model seperti Claude Sonnet 4 dan 4.5 serta GPT-5, terintegrasi dengan GitHub, Jira, dan Confluence, serta mendukung Model Context Protocol (MCP) untuk interoperabilitas dengan alat eksternal
- Menyediakan panduan langkah demi langkah untuk perubahan codebase yang kompleks, mulai dari refactoring dan upgrade dependensi hingga pembaruan skema
74. Azure AI Document Intelligence
- Azure AI Document Intelligence (sebelumnya Form Recognizer) mengekstrak teks, tabel, dan pasangan key-value dari dokumen tidak terstruktur lalu mengubahnya menjadi data terstruktur
- Menggunakan model deep learning yang telah dilatih sebelumnya untuk menafsirkan layout dan makna, dan memungkinkan pelatihan model kustom melalui antarmuka no-code untuk format khusus
- Salah satu tim melaporkan bahwa ADI secara signifikan mengurangi input data manual, meningkatkan akurasi data, dan mempercepat pelaporan, yang menghasilkan pengambilan keputusan berbasis data yang lebih cepat
- Seperti Amazon Textract dan Google Document AI, layanan ini menawarkan pemrosesan dokumen kelas enterprise dengan pemahaman layout yang kuat
75. Docling
- Docling adalah library Python dan TypeScript open-source untuk pemrosesan dokumen tingkat lanjut pada data tidak terstruktur
- Menangani masalah "last mile" yang sering terabaikan dalam mengubah dokumen dunia nyata seperti PDF dan PowerPoint ke format yang bersih dan dapat dibaca mesin
- Berbeda dari extractor tradisional, Docling menggunakan pendekatan berbasis computer vision untuk menafsirkan layout dokumen dan struktur semantik, sehingga output-nya sangat bernilai untuk pipeline retrieval-augmented generation (RAG)
- Mengubah dokumen kompleks menjadi format terstruktur seperti JSON atau Markdown, sehingga mendukung teknik seperti structured output from LLMs
76. E2B
- E2B adalah alat open-source untuk menjalankan kode yang dihasilkan AI dalam sandbox yang aman dan terisolasi di cloud
- Agen dapat menggunakan sandbox ini, yang dibangun di atas microVM Firecracker, untuk menjalankan kode dengan aman, menganalisis data, melakukan riset, atau mengoperasikan virtual machine
- Ini memungkinkan pembangunan dan deployment agen AI kelas enterprise dengan kontrol penuh atas lingkungan eksekusi dan keamanan
77. Helix editor
- Ada semacam kebangkitan editor teks sederhana yang ingin menggantikan favorit command line, Vim
- Helix adalah salah satu pesaing di ruang yang ramai ini, bersama Neovim dan belakangan Kakoune
- Dengan agak bercanda menyebut dirinya editor teks post-modern, Helix memiliki fitur multi-cursor, dukungan Tree-sitter, dan dukungan terintegrasi untuk Language Server Protocol (LSP), yang pertama kali menarik perhatian kami
- Sedang dikembangkan aktif dengan sistem plugin yang masih berjalan, dan secara keseluruhan merupakan editor modal ringan yang terasa familier bagi pengguna Vim sambil menambahkan beberapa kenyamanan modern
78. Kueue
- Kueue adalah controller native Kubernetes untuk antrean pekerjaan yang mengelola kuota dan konsumsi resource
- Menyediakan API untuk menangani workload Kubernetes dengan berbagai prioritas dan kebutuhan resource, serta berfungsi sebagai manajer tingkat pekerjaan yang memutuskan kapan pekerjaan diterima atau dihapus
- Dirancang untuk manajemen resource yang efisien, penentuan prioritas pekerjaan, dan penjadwalan tingkat lanjut, Kueue membantu mengoptimalkan eksekusi workload di lingkungan Kubernetes, khususnya workload ML yang menggunakan alat seperti Kubeflow
- Alih-alih menggantikan cluster-autoscaler dan kube-scheduler, Kueue bekerja bersama keduanya dan berfokus pada penerimaan pekerjaan berdasarkan urutan, kuota, prioritas, dan kesadaran topologi
79. MCPScan.ai
- MCPScan.ai adalah pemindai keamanan untuk server Model Context Protocol (MCP) yang bekerja dalam dua mode: scan dan proxy
- Dalam mode scan, alat ini menganalisis konfigurasi dan deskripsi alat untuk mendeteksi kerentanan yang telah dikenal seperti prompt injection, tool poisoning, dan toxic flows
- Dalam mode proxy, MCPScan.ai berperan sebagai jembatan antara sistem agen dan server MCP, sambil terus memantau traffic runtime
- Mode ini juga menegakkan aturan keamanan dan guardrail kustom, termasuk validasi pemanggilan alat, deteksi PII, dan pembatasan aliran data
80. oRPC
- oRPC (OpenAPI Remote Procedure Call) menyediakan API end-to-end type-safe di TypeScript sambil tetap sepenuhnya mematuhi spesifikasi OpenAPI
- Dapat secara otomatis menghasilkan spesifikasi OpenAPI lengkap sehingga integrasi dan dokumentasi bisa disederhanakan
- Sementara alternatif seperti tRPC dan ElysiaJS sering mengharuskan adopsi framework baru untuk mendapatkan type safety, oRPC terintegrasi mulus dengan framework Node.js yang sudah ada termasuk Express, Fastify, Hono, dan Next.js
- Fleksibilitas ini menjadikannya pilihan yang sangat baik bagi tim yang ingin mengadopsi type safety end-to-end pada API yang sudah ada tanpa refactoring yang disruptif
81. Power user for dbt
- Power user for dbt adalah ekstensi untuk Visual Studio Code yang terintegrasi langsung dengan lingkungan dbt maupun dbt Cloud
- Karena dbt tetap menjadi salah satu alat favorit kami, segala hal yang meningkatkan kegunaannya merupakan tambahan yang disambut baik bagi ekosistemnya
- Sebelumnya, developer harus mengandalkan beberapa alat di luar IDE untuk memvalidasi kode SQL atau memeriksa lineage model
- Dengan ekstensi ini, kemampuan tersebut kini tertanam di VS Code, menghadirkan code autocompletion, hasil kueri real-time, serta lineage model dan kolom secara visual
82. Serena
- Serena adalah toolkit coding yang kuat yang memberi agen coding seperti Claude Code kemampuan mirip IDE untuk pencarian dan pengeditan kode secara semantik
- Dengan bekerja pada level simbol dan memahami struktur relasional kode, Serena secara signifikan meningkatkan efisiensi token
- Alih-alih membaca seluruh file atau bergantung pada penggantian string yang kasar, agen coding dapat menemukan dan mengedit kode menggunakan alat Serena yang presisi seperti find_symbol, find_referencing_symbols, dan insert_after_symbol
- Pada proyek kecil dampaknya minim, tetapi seiring membesarnya codebase, efisiensi ini menjadi sangat bernilai
83. SweetPad
- Ekstensi SweetPad memungkinkan developer menggunakan VS Code atau Cursor untuk seluruh siklus hidup pengembangan aplikasi Swift di platform Apple
- Dengan mengintegrasikan alat penting seperti xcodebuild, xcode-build-server, dan swift-format, kebutuhan untuk terus-menerus berpindah ke Xcode dapat dihilangkan
- Developer dapat membangun, menjalankan, dan men-debug aplikasi Swift untuk iOS, macOS, dan watchOS langsung dari IDE sambil mengelola simulator dan melakukan deployment ke perangkat tanpa perlu membuka Xcode
84. Tape/Z (Tools for Assembly Program Exploration for Z/OS)
- Tape/Z (Tools for Assembly Program Exploration for Z/OS) adalah toolkit yang terus berkembang untuk analisis kode mainframe HLASM (High-Level Assembler)
- Dikembangkan oleh Thoughtworker, toolkit ini menyediakan kemampuan seperti parsing, penyusunan grafik control flow, pelacakan dependensi, dan visualisasi flowchart
- Kami sudah lama menyoroti kelangkaan alat terbuka dan digerakkan komunitas di ranah mainframe, di mana sebagian besar opsi bersifat proprietari atau terikat pada ekosistem vendor
- Tape/Z membantu menutup kesenjangan tersebut dengan menyediakan kemampuan analisis yang mudah diakses dan dapat discrpt
[Languages and Frameworks]
Adopt
85. Fastify
- Kami terus mendapatkan pengalaman positif dengan Fastify - framework web untuk Node.js yang cepat, tidak opinionated, dan ber-overhead rendah
- Framework ini menyediakan semua kemampuan esensial dari framework web minimal, termasuk parsing, validasi, dan serialisasi, serta sistem plugin yang kokoh dan dukungan komunitas yang kuat
- Tim tidak melihat kekurangan berarti saat menggunakan Fastify dibandingkan alternatif seperti Express.js, dan juga memperoleh peningkatan performa yang terukur, menjadikannya pilihan menarik untuk pengembangan web minimal di Node.js
86. LangGraph
- LangGraph adalah framework orkestrasi untuk membangun aplikasi multi-agen stateful menggunakan LLM
- Framework ini menyediakan primitive tingkat rendah seperti node dan edge serta kemampuan bawaan yang memberi developer kontrol granular atas workflow agen, manajemen memori, dan persistensi state
- Ini berarti developer dapat memulai dari graf sederhana yang sudah dibangun sebelumnya lalu berkembang ke arsitektur agen yang kompleks dan terus berevolusi
- Dengan dukungan pola resiliensi seperti streaming, manajemen konteks tingkat lanjut, model fallback, dan penanganan error alat, LangGraph memungkinkan pembangunan aplikasi agen tingkat produksi yang tangguh
87. vLLM
- vLLM adalah mesin inferensi untuk LLM dengan throughput tinggi dan efisiensi memori yang dapat dijalankan di cloud maupun on-premises
- Mendukung berbagai arsitektur model dan model open source populer
- Tim mendeploy worker vLLM yang sudah didockerisasi pada platform GPU seperti NVIDIA DGX dan Intel HPC untuk meng-host model termasuk Llama 3.1 (8B dan 70B), Mistral 7B, dan Llama-SQL guna mendukung coding developer, pencarian pengetahuan, dan interaksi database berbasis bahasa alami
- vLLM kompatibel dengan standar OpenAI SDK sehingga memungkinkan model serving yang konsisten
Trial
88. Crossplane
- Sejak terakhir muncul di Radar, adopsi Crossplane terus meningkat, terutama untuk memperluas klaster Kubernetes
- Dalam praktiknya, kami menemukan bahwa Crossplane unggul pada kasus penggunaan tertentu, bukan sebagai alat infrastructure as code (IaC) serbaguna
- Pengamatan sebelumnya tetap berlaku: Crossplane paling cocok bekerja sebagai pendamping workload yang dideploy di dalam Kubernetes, dan bukan pengganti penuh untuk alat seperti Terraform
- Tim yang "all-in" menjadikan Crossplane sebagai solusi IaC utama sering mengalami kesulitan, tetapi tim yang menggunakannya secara pragmatis - untuk kasus penggunaan kustom yang terarah - melihat hasil yang kuat
89. DeepEval
- DeepEval adalah framework evaluasi berbasis Python open source untuk menilai performa LLM
- Dapat digunakan untuk mengevaluasi retrieval-augmented generation (RAG) dan aplikasi lain yang dibangun dengan LlamaIndex atau LangChain, serta untuk baseline dan benchmark model
- DeepEval menilai akurasi, relevansi, dan koherensi untuk memberikan evaluasi yang lebih andal dalam skenario nyata, melampaui skor pencocokan kata
- Mencakup metrik seperti deteksi halusinasi, relevansi jawaban, dan optimasi hyperparameter, serta mendukung GEval untuk pembuatan metrik kustom sesuai use case
90. FastMCP
- Model Context Protocol (MCP) dengan cepat memantapkan diri sebagai standar untuk menyediakan konteks dan alat bagi aplikasi LLM
- Namun, implementasi server MCP umumnya mencakup banyak boilerplate untuk konfigurasi, penanganan protokol, dan manajemen error
- FastMCP adalah framework Python yang menyederhanakan proses ini dengan mengabstraksikan kompleksitas protokol dan memungkinkan pengembang mendefinisikan resource serta tool MCP melalui decorator Python yang intuitif
- Abstraksi ini memungkinkan tim fokus pada logika bisnis, sehingga menghasilkan implementasi MCP yang lebih bersih dan mudah dipelihara
91. LiteLLM
- LiteLLM adalah SDK yang menyediakan integrasi mulus dengan berbagai penyedia LLM melalui format API OpenAI yang terstandarisasi
- Mendukung berbagai penyedia dan model secara luas, serta menyediakan antarmuka terpadu untuk text completion, embedding, dan pembuatan gambar
- Dengan mengabstraksikan perbedaan API antarpenyedia, LiteLLM menyederhanakan integrasi dan secara otomatis merutekan permintaan ke endpoint model yang benar
- Melalui framework proxy-nya, ia juga mencakup fitur kelas produksi seperti guardrail, caching, logging, rate limiting, dan load balancing
92. MLForecast
- MLForecast adalah framework dan pustaka Python untuk peramalan deret waktu yang menerapkan model machine learning pada dataset berskala besar
- Menyederhanakan proses automated feature engineering yang biasanya kompleks, termasuk lag, rolling statistics, dan fitur berbasis tanggal
- Merupakan salah satu dari sedikit pustaka dengan dukungan native untuk framework komputasi terdistribusi seperti Spark dan Dask, sehingga skalabilitas terjamin
- Juga mendukung probabilistic forecasting menggunakan metode seperti conformal prediction, yang memberikan pengukuran kuantitatif atas ketidakpastian prediksi
93. Nuxt
- Nuxt adalah meta-framework beropini yang dibangun di atas Vue.js untuk membuat aplikasi web full-stack, dan sering dikenal sebagai "Next.js untuk Vue.js"
- Mirip dengan padanan React-nya, Nuxt menyediakan fitur yang ramah SEO seperti prerendering, server-side rendering (SSR), dan manajemen metadata
- Nuxt didukung oleh Vercel, perusahaan yang sama di balik Next.js, serta komunitas yang kuat dan ekosistem modul resmi maupun pihak ketiga
- Modul-modul ini menyederhanakan integrasi fitur seperti pemrosesan gambar, sitemap, dan Tailwind CSS
94. Phoenix
- Mereka terus mendapatkan pengalaman positif dengan Phoenix — framework web MVC sisi server yang ditulis dengan Elixir
- Phoenix dibangun di atas pembelajaran dari rapid application development dan developer experience milik Ruby on Rails, sambil juga berkembang melalui paradigma pemrograman fungsional
- Pada volume ini, mereka menyoroti rilis Phoenix LiveView 1.0
- LiveView adalah solusi HTML-over-the-wire yang mirip dengan HTMX atau Hotwire, yang memungkinkan pengembang membangun pengalaman pengguna yang kaya dan real-time sepenuhnya dengan HTML yang dirender di server
95. Presidio
- Presidio adalah SDK perlindungan data untuk identifying dan anonymizing data sensitif dalam teks terstruktur maupun tidak terstruktur
- Menggunakan named entity recognition, regular expression, dan logika berbasis aturan untuk mendeteksi personally identifiable information (PII) seperti nomor kartu kredit, nama, dan lokasi
- Presidio mendukung pengenal entitas custom dan pipeline anonimisasi, sehingga organisasi dapat menyesuaikannya dengan kebutuhan privasi dan kepatuhan mereka sendiri
- Tim menggunakan Presidio saat berintegrasi dengan LLM di lingkungan enterprise yang memiliki kontrol berbagi data yang ketat
96. Pydantic AI
- Pydantic AI terus terbukti sebagai framework open-source yang stabil dan didukung dengan baik untuk membangun agen GenAI di produksi
- Dibangun di atas fondasi Pydantic yang tepercaya, memberikan type safety yang kuat, visibilitas kelas satu melalui OpenTelemetry, dan alat evaluasi bawaan
- Rilis versi 1.0 pada 4 September 2025 menandai tonggak penting dalam kematangannya
- Sejak itu, framework ini dipercaya dan diadopsi secara luas berkat kesederhanaan serta kemudahan pemeliharaannya, bergabung dengan jajaran framework agen populer lain seperti LangChain dan LangGraph
97. Tauri
- Tauri adalah framework untuk membangun aplikasi desktop berkinerja tinggi dengan menggunakan satu codebase UI web
- Tidak seperti web wrapper tradisional seperti Electron, Tauri dibangun di atas Rust dan memanfaatkan webview native dari sistem operasi untuk memberikan binary yang lebih kecil dan keamanan yang lebih kuat
- Mereka pertama kali mengevaluasi Tauri beberapa tahun lalu, dan sejak itu framework ini telah berkembang melampaui desktop dengan dukungan untuk iOS dan Android
- Versi terbaru menghadirkan model izin dan cakupan yang lebih fleksibel, menggantikan daftar izin sebelumnya, serta menampilkan lapisan inter-process communication (IPC) yang ditingkatkan untuk mendukung transfer data mentah dan meningkatkan performa
Assess
98. Agent Development Kit (ADK)
- Agent Development Kit (ADK) adalah framework untuk pengembangan dan deployment agen AI yang menerapkan disiplin rekayasa perangkat lunak modern, alih-alih hanya mengandalkan prompting
- Memperkenalkan abstraksi yang familier seperti class, method, pola workflow, dan dukungan CLI
- Dibandingkan dengan framework seperti LangGraph atau CrewAI, kekuatan ADK terletak pada integrasinya yang mendalam dengan infrastruktur AI Google, yang menyediakan grounding, akses data, dan pemantauan yang siap untuk enterprise
- Dirancang untuk interoperabilitas, dengan dukungan untuk tool wrapper dan A2A protocol untuk komunikasi antaragen
99. Agno
- Agno adalah framework untuk membangun, menjalankan, dan mengelola sistem multi-agen
- Menawarkan fleksibilitas untuk membuat agen yang sepenuhnya otonom atau workflow berbasis langkah yang terkontrol, serta mencakup dukungan bawaan untuk human-in-the-loop, manajemen sesi, memori, dan pengetahuan
- Mereka mengapresiasi fokusnya pada efisiensi, dengan waktu startup agen yang mengesankan dan konsumsi memori yang rendah
- Agno hadir bersama runtime miliknya sendiri, AgentOS, yang merupakan aplikasi FastAPI dengan control plane terpadu untuk pengujian, pemantauan, dan pengelolaan sistem agen yang lebih ringkas
100. assistant-ui
- assistant-ui adalah pustaka TypeScript dan React open-source untuk antarmuka chat AI
- Menangani bagian-bagian kompleks dari implementasi UI chat seperti streaming, manajemen state, dan fitur UX umum untuk pengeditan pesan serta perpindahan cabang, sambil memungkinkan pengembang merancang komponen mereka sendiri menggunakan primitive Radix
- Mendukung integrasi dengan runtime populer termasuk Vercel AI SDK dan LangGraph, serta menyediakan solusi runtime yang dapat disesuaikan untuk use case yang kompleks
- Mereka berhasil membangun antarmuka chat sederhana dengan assistant-ui dan puas dengan hasilnya
101. AutoRound
- AutoRound dari Intel adalah algoritme kuantisasi canggih untuk mengompresi model AI besar seperti LLM dan vision language models (VLM) dengan meminimalkan kehilangan akurasi
- Menggunakan optimisasi sign-gradient descent untuk mengurangi ukuran model ke lebar bit ultra-rendah (2-4 bit) dan menerapkan lebar bit campuran di seluruh layer untuk efisiensi optimal
- Proses kuantisasi ini juga sangat cepat: model dengan 7 miliar parameter dapat dikuantisasi dalam hitungan menit pada satu GPU
- AutoRound terintegrasi dengan mesin inferensi populer seperti vLLM dan Transformers, menjadikannya opsi yang menarik untuk kuantisasi model
102. Browser Use
- Browser Use adalah pustaka Python open source yang memungkinkan agen berbasis LLM mengoperasikan browser web dan berinteraksi dengan aplikasi web
- Dapat melakukan navigasi, input data, ekstraksi teks, serta mengelola banyak tab untuk mengoordinasikan tugas antar aplikasi
- Pustaka ini sangat berguna terutama ketika agen AI perlu mengakses, memanipulasi, atau mengambil informasi dari konten web
- Mendukung berbagai LLM dan memanfaatkan Playwright untuk menggabungkan pemahaman visual dengan ekstraksi struktur HTML demi interaksi web yang lebih kaya
103. DeepSpeed
- DeepSpeed adalah pustaka Python yang mengoptimalkan deep learning terdistribusi untuk pelatihan maupun inferensi
- Untuk pelatihan, ia menggabungkan teknik seperti Zero Redundancy Optimizer (ZeRO) dan paralelisme 3D agar model dapat diskalakan secara efisien di ribuan GPU
- Untuk inferensi, ia menggabungkan paralelisme tensor, pipeline, expert, dan ZeRO dengan kernel kustom serta optimisasi komunikasi untuk meminimalkan latensi
- DeepSpeed menjalankan beberapa model bahasa terbesar di dunia, termasuk Megatron-Turing NLG (530B) dan BLOOM (176B)
104. Drizzle
- Drizzle adalah ORM TypeScript yang ringan
- Tidak seperti Prisma ORM, Drizzle memberi developer API sederhana mirip SQL sekaligus antarmuka query bergaya ORM yang lebih tradisional
- Juga mendukung ekstraksi skema dari database yang sudah ada, sehingga memungkinkan pendekatan database-first maupun code-first
- Drizzle dirancang dengan mempertimbangkan lingkungan serverless, memiliki ukuran bundle kecil, dan mendukung prepared statements
105. Java post-quantum cryptography
- Komputer kuantum terus berkembang pesat, dan penawaran SaaS seperti AWS Braket kini menyediakan akses ke algoritme kuantum di berbagai arsitektur
- Sejak Maret, Java 24 memperkenalkan Java post-quantum cryptography, menambahkan dukungan untuk algoritme kriptografi pascakuantum seperti ML-KEM dan ML-DSA
- .Net 10 juga memperluas dukungannya
- Saran ini sederhana: jika Anda membangun perangkat lunak dengan bahasa-bahasa ini, mulailah mengadopsi algoritme yang aman terhadap kuantum sekarang untuk membuat sistem Anda lebih siap menghadapi masa depan
106. kagent
- Kagent adalah framework open source untuk menjalankan AI agen di dalam cluster Kubernetes
- Memungkinkan agen berbasis LLM merencanakan dan mengeksekusi tugas operasional seperti mendiagnosis masalah, memperbaiki konfigurasi, dan berinteraksi dengan alat observabilitas melalui API native Kubernetes dan integrasi Model Context Protocol (MCP)
- Tujuannya adalah menghadirkan "AgentOps" ke infrastruktur cloud-native dengan menggabungkan pengelolaan deklaratif dan penalaran otonom
- Sebagai proyek CNCF Sandbox, Kagent harus diadopsi dengan hati-hati, terutama mengingat risiko memberi LLM kemampuan manajemen operasional, dan teknik seperti toxic flow analysis bisa sangat bernilai untuk menilai serta memitigasi risiko tersebut
107. LangExtract
- LangExtract adalah pustaka Python yang menggunakan LLM untuk mengekstrak informasi terstruktur dari teks tidak terstruktur sesuai instruksi khusus pengguna
- Dengan memproses materi spesifik domain seperti catatan klinis dan laporan, pustaka ini mengidentifikasi serta menyusun detail penting sambil menjaga setiap titik data yang diekstrak tetap dapat ditelusuri ke sumbernya
- Entitas yang diekstrak dapat diekspor ke file
.jsonl(format standar untuk data model bahasa) dan divisualisasikan melalui antarmuka HTML interaktif untuk meninjau konteks - Tim mengevaluasi LangExtract untuk mengekstrak entitas guna mengisi knowledge graph domain dan menemukan bahwa pustaka ini efektif untuk mengubah dokumen kompleks menjadi representasi terstruktur yang dapat dibaca mesin
108. Langflow
- Langflow adalah platform low-code open source untuk membangun dan memvisualisasikan workflow LLM
- Dibangun di atas LangChain, platform ini memungkinkan developer merangkai prompt, tools, vector database, dan komponen memori melalui antarmuka drag-and-drop, sambil tetap mendukung kode Python kustom untuk logika lanjutan
- Sangat berguna khususnya untuk membuat prototipe aplikasi agen tanpa harus menulis kode backend lengkap
- Namun, Langflow masih relatif baru dan memiliki beberapa bagian yang belum matang untuk penggunaan produksi, dan kehati-hatian umum terhadap platform low-code juga berlaku di sini
109. LMCache
- LMCache adalah solusi cache key-value (KV) yang mempercepat infrastruktur serving LLM
- Berfungsi sebagai layer caching khusus di seluruh pool mesin inferensi LLM, menyimpan entri cache KV yang telah diprehitungkan untuk teks yang kemungkinan akan diproses berulang kali, seperti riwayat chat atau koleksi dokumen
- Dengan menyimpan nilai-nilai ini di disk, perhitungan prefill dapat di-offload dari GPU sehingga mengurangi time-to-first-token (TTFT) dan menurunkan biaya inferensi di berbagai workload yang menuntut seperti pipeline RAG, aplikasi chat multi-turn, dan sistem agen
- LMCache dapat diintegrasikan dengan server inferensi utama seperti vLLM atau NVIDIA Dynamo, dan layak dievaluasi dampaknya pada setup Anda
110. Mem0
- Mem0 adalah layer memori yang dirancang untuk agen AI
- Pendekatan naif sering kali hanya menyimpan seluruh riwayat chat ke database dan menggunakannya kembali dalam percakapan berikutnya, yang menyebabkan penggunaan token berlebihan
- Mem0 menggantinya dengan arsitektur yang lebih canggih yang memisahkan memori menjadi recall jangka pendek dan layer jangka panjang cerdas yang hanya mengekstrak serta menyimpan fakta dan relasi yang menonjol
- Arsitektur ini menggabungkan vector store untuk kemiripan semantik dan knowledge graph untuk memahami data temporal dan relasional
111. Open Security Control Assessment Language (OSCAL)
- Open Security Controls Assessment Language (OSCAL) adalah format pertukaran informasi terbuka dan dapat dibaca mesin yang dirancang untuk meningkatkan otomatisasi dalam kepatuhan dan manajemen risiko serta membantu tim beralih dari pendekatan manual berbasis teks
- Dipimpin oleh National Institute of Standards and Technology (NIST) AS, OSCAL menyediakan representasi standar dalam XML, JSON, dan YAML untuk mengekspresikan kontrol keamanan yang terkait dengan framework industri seperti SOC 2 dan PCI, serta framework pemerintah seperti FedRAMP di AS, Cybersecurity Control Catalogue di Singapura, dan Information Security Manual di Australia
- Meski OSCAL belum diadopsi luas di luar sektor publik dan ekosistemnya masih berkembang, ada antusiasme terhadap potensinya untuk menyederhanakan penilaian keamanan, mengurangi ketergantungan pada spreadsheet dan latihan centang kotak, serta memungkinkan kepatuhan otomatis saat diintegrasikan ke platform compliance-as-code dan continuous compliance
112. OpenInference
- OpenInference adalah kumpulan konvensi dan plugin yang dirancang untuk mengamati aplikasi AI dan melengkapi OpenTelemetry
- Menyediakan instrumentasi terstandarisasi untuk framework dan library machine learning, membantu pengembang melacak panggilan LLM bersama konteks di sekitarnya, seperti pencarian vector store atau pemanggilan alat eksternal ke API dan mesin pencari
- Span dapat diekspor ke kolektor apa pun yang kompatibel dengan OTEL, sehingga selaras dengan pipeline telemetri yang sudah ada
- Sebelumnya mereka telah memberi blip pada Langfuse, platform visibilitas LLM yang umum digunakan, dan OpenInference SDK dapat mencatat trace ke Langfuse serta platform visibilitas lain yang kompatibel dengan OpenTelemetry
113. Valibot
- Valibot adalah library validasi skema untuk TypeScript
- Seperti library validasi TypeScript populer lainnya seperti Zod dan Ajv, Valibot menawarkan inferensi tipe, tetapi yang membedakannya adalah desain modularnya
- Arsitektur ini memungkinkan bundler melakukan tree shaking dan code splitting secara efektif, sehingga hanya fungsi validasi yang benar-benar digunakan yang disertakan
- Dalam skenario terbaik, Valibot dapat mengurangi ukuran bundle hingga 95% dibandingkan Zod, menjadikannya pilihan menarik untuk validasi skema di lingkungan yang sensitif terhadap ukuran bundle, seperti validasi sisi klien atau fungsi serverless
114. Vercel AI SDK
- Vercel AI SDK adalah toolkit full-stack open source untuk membangun aplikasi dan agen berbasis AI di ekosistem TypeScript
- Terdiri dari dua komponen utama: AI SDK Core menstandarkan pemanggilan LLM yang independen dari model, dengan dukungan untuk pembuatan teks, pembuatan objek terstruktur, dan pemanggilan alat
- AI SDK UI, mirip dengan assistant-ui, menyederhanakan pengembangan frontend di React, Vue, Next.js, dan Svelte dengan streaming, manajemen status, dan pembaruan UI real-time
- Bagi tim yang sudah bekerja di dalam ekosistem TypeScript dan Next.js, Vercel AI SDK menawarkan cara yang cepat dan mulus untuk membangun aplikasi AI dengan pengalaman sisi klien yang kaya
Belum ada komentar.