- Menjalankan model Gemma 4 dari Google sepenuhnya on-device berbasis WebGPU untuk dimanfaatkan sebagai asisten AI pribadi yang selalu tersedia di dalam browser
- Tanpa API key, cloud, atau pengiriman data eksternal - semua inferensi diproses secara lokal dan data tidak pernah keluar dari perangkat
- Mendukung perilaku agen yang dapat membaca halaman yang sedang dikunjungi, mengeklik tombol, mengisi formulir, menjalankan JavaScript, dan melakukan tanya jawab tentang situs
- Tersedia pilihan dua model: Gemma 4 E2B(~500MB) / E4B(~1.5GB), dan akan di-cache setelah dijalankan pertama kali untuk digunakan kembali
- Mendukung kuantisasi q4f16 dan konteks 128K (
onnx-community/gemma-4-E2B-it-ONNX, onnx-community/gemma-4-E4B-it-ONNX)
- Menyediakan 6 alat bawaan
read_page_content: membaca teks/HTML halaman atau berdasarkan CSS selector
take_screenshot: menangkap halaman yang terlihat sebagai PNG
click_element / type_text / scroll_page: manipulasi DOM berbasis CSS selector
run_javascript: menjalankan JS dengan akses penuh ke seluruh DOM dalam konteks halaman
- Arsitektur 3 lapis: Offscreen Document + Service Worker + Content Script
- Offscreen document meng-host model dengan
@huggingface/transformers + WebGPU dan menjalankan agent loop
- Service worker menangani routing pesan serta screenshot dan eksekusi JS
- Content script menyuntikkan ikon gem dan overlay chat shadow DOM
- Di pengaturan tersedia dukungan untuk pergantian model, toggle Thinking, batas atas loop pemanggilan alat, inisialisasi ulang riwayat percakapan, dan penonaktifan per situs
- Direktori
agent/ tanpa dependensi, berbasis antarmuka ModelBackend dan ToolExecutor, sehingga dapat dijadikan library terpisah
- Memerlukan Chrome dengan dukungan WebGPU / lisensi Apache-2.0 / implementasi berbasis TypeScript
Belum ada komentar.