- Ollama merilis fitur pencarian informasi web terbaru sebagai API, yang membantu mengurangi halusinasi model dan mendukung peningkatan akurasi
- Bahkan akun gratis juga mencakup kuota pencarian gratis yang cukup besar, dan pengguna dengan frekuensi tinggi dapat memakai batas yang lebih tinggi melalui Ollama Cloud
- Berbasis REST API dan terintegrasi dengan library Python dan JavaScript, sehingga model seperti OpenAI
gpt-oss dapat menjalankan tugas riset berdurasi panjang
- Dengan fitur
web_search dan web_fetch, API mengembalikan hasil hingga ribuan token serta mendukung integrasi dengan berbagai tool seperti Cline, Codex, dan Goose melalui server MCP
- Ini memungkinkan pembangunan agen pencarian secara langsung, sehingga sangat memperluas fleksibilitas AI model untuk berinteraksi dengan data terbaru
Pengenalan fitur pencarian web Ollama
- Ollama merilis API pencarian web untuk menyediakan lingkungan di mana model AI bisa langsung mendapatkan informasi web terbaru
- Berkat ini, diharapkan terjadi pengurangan halusinasi (hallucination) sekaligus peningkatan akurasi
- Untuk pengguna individu, tersedia kuota pencarian gratis yang cukup besar, dan jika membutuhkan penggunaan lebih tinggi, kuota dapat diperluas melalui langganan Ollama Cloud
- Disediakan sebagai REST API, dengan dukungan integrasi tool yang lebih mendalam melalui library Python dan JavaScript
- Struktur ini memungkinkan berbagai model seperti gpt-oss menjalankan riset jangka panjang dan tugas pencarian
Contoh cara menggunakan API
- Dengan API key yang diterbitkan dari akun Ollama, pengguna dapat memanggil
cURL, ollama.web_search() di Python, atau client.webSearch() di JavaScript
- Hasil dikembalikan dalam struktur JSON yang mencakup judul, URL, dan ringkasan isi
- Dengan API
web_fetch, isi halaman per URL dapat diambil hingga mencakup teks utama dan daftar tautan
Implementasi agen pencarian berbasis web
- API Ollama dapat digabungkan dengan model seperti Qwen3 dan gpt-oss untuk mengembangkan agen pencarian multi-turn yang otomatis
- Pada kode contoh, model Qwen3:4B digunakan untuk mengotomatisasi alur pencarian → penalaran → ringkasan hasil
- Berdasarkan hasil pencarian, model melalui proses "Thinking" dan berulang kali memanfaatkan hasil pemanggilan tool pencarian/fetch untuk menjalankan skenario riset atau eksplorasi yang kompleks
- Upgrade terbaru pada engine Ollama mencakup manajemen memori yang akurat, optimasi GPU/multi-GPU, peningkatan performa, serta dukungan penuh untuk model vision (multimodal)
Panduan model yang direkomendasikan dan performa
- Direkomendasikan model cloud dengan kemampuan penggunaan tool yang kuat (misalnya
qwen3:480b-cloud, gpt-oss:120b-cloud, deepseek-v3.1-cloud)
- Karena tool pencarian dan fetch dapat mengembalikan data hingga ribuan token, disarankan memperpanjang panjang konteks model ke sekitar 32000 token
Fitur fetch halaman web individual
- Selain pencarian web, tersedia juga API/fungsi untuk langsung mengambil teks dan struktur tautan dari halaman web individual yang ditentukan
- Dengan Python, JavaScript, atau cURL, cukup kirim url sebagai argumen untuk mengekstrak
title, content, tautan terkait, dan lain-lain dari halaman
- Kode contoh yang lebih rinci dapat dilihat di repositori GitHub resmi
Integrasi tool dan agen
web_search, web_fetch mengembalikan data hingga ribuan token, sehingga disarankan memperluas konteks model ke 32K atau lebih
- Dukungan server MCP memungkinkan integrasi langsung dengan lingkungan pengembangan AI seperti Cline, Codex, dan Goose
- Kode contoh Python dan JavaScript disediakan di repositori GitHub resmi
Memulai
- Pencarian web tersedia secara bawaan dengan akun Ollama gratis, sementara penggunaan yang lebih tinggi dapat diakses melalui langganan berbayar
- Buat akun di situs web Ollama, terbitkan API key, lalu langsung gunakan layanannya
3 komentar
Sepertinya versi gratis Ollama belum akan cukup layak untuk dipakai dalam penggunaan nyata..
Bahkan di halaman harga pun tidak ada penjelasan soal kuota, jadi sulit menilai apakah ini sepadan dengan biayanya.
Komentar Hacker News