13 poin oleh GN⁺ 2025-09-29 | 3 komentar | Bagikan ke WhatsApp
  • Ollama merilis fitur pencarian informasi web terbaru sebagai API, yang membantu mengurangi halusinasi model dan mendukung peningkatan akurasi
  • Bahkan akun gratis juga mencakup kuota pencarian gratis yang cukup besar, dan pengguna dengan frekuensi tinggi dapat memakai batas yang lebih tinggi melalui Ollama Cloud
  • Berbasis REST API dan terintegrasi dengan library Python dan JavaScript, sehingga model seperti OpenAI gpt-oss dapat menjalankan tugas riset berdurasi panjang
  • Dengan fitur web_search dan web_fetch, API mengembalikan hasil hingga ribuan token serta mendukung integrasi dengan berbagai tool seperti Cline, Codex, dan Goose melalui server MCP
  • Ini memungkinkan pembangunan agen pencarian secara langsung, sehingga sangat memperluas fleksibilitas AI model untuk berinteraksi dengan data terbaru

Pengenalan fitur pencarian web Ollama

  • Ollama merilis API pencarian web untuk menyediakan lingkungan di mana model AI bisa langsung mendapatkan informasi web terbaru
  • Berkat ini, diharapkan terjadi pengurangan halusinasi (hallucination) sekaligus peningkatan akurasi
  • Untuk pengguna individu, tersedia kuota pencarian gratis yang cukup besar, dan jika membutuhkan penggunaan lebih tinggi, kuota dapat diperluas melalui langganan Ollama Cloud
  • Disediakan sebagai REST API, dengan dukungan integrasi tool yang lebih mendalam melalui library Python dan JavaScript
  • Struktur ini memungkinkan berbagai model seperti gpt-oss menjalankan riset jangka panjang dan tugas pencarian

Contoh cara menggunakan API

  • Dengan API key yang diterbitkan dari akun Ollama, pengguna dapat memanggil cURL, ollama.web_search() di Python, atau client.webSearch() di JavaScript
  • Hasil dikembalikan dalam struktur JSON yang mencakup judul, URL, dan ringkasan isi
  • Dengan API web_fetch, isi halaman per URL dapat diambil hingga mencakup teks utama dan daftar tautan

Implementasi agen pencarian berbasis web

  • API Ollama dapat digabungkan dengan model seperti Qwen3 dan gpt-oss untuk mengembangkan agen pencarian multi-turn yang otomatis
  • Pada kode contoh, model Qwen3:4B digunakan untuk mengotomatisasi alur pencarian → penalaran → ringkasan hasil
  • Berdasarkan hasil pencarian, model melalui proses "Thinking" dan berulang kali memanfaatkan hasil pemanggilan tool pencarian/fetch untuk menjalankan skenario riset atau eksplorasi yang kompleks
  • Upgrade terbaru pada engine Ollama mencakup manajemen memori yang akurat, optimasi GPU/multi-GPU, peningkatan performa, serta dukungan penuh untuk model vision (multimodal)

Panduan model yang direkomendasikan dan performa

  • Direkomendasikan model cloud dengan kemampuan penggunaan tool yang kuat (misalnya qwen3:480b-cloud, gpt-oss:120b-cloud, deepseek-v3.1-cloud)
  • Karena tool pencarian dan fetch dapat mengembalikan data hingga ribuan token, disarankan memperpanjang panjang konteks model ke sekitar 32000 token

Fitur fetch halaman web individual

  • Selain pencarian web, tersedia juga API/fungsi untuk langsung mengambil teks dan struktur tautan dari halaman web individual yang ditentukan
  • Dengan Python, JavaScript, atau cURL, cukup kirim url sebagai argumen untuk mengekstrak title, content, tautan terkait, dan lain-lain dari halaman
  • Kode contoh yang lebih rinci dapat dilihat di repositori GitHub resmi

Integrasi tool dan agen

  • web_search, web_fetch mengembalikan data hingga ribuan token, sehingga disarankan memperluas konteks model ke 32K atau lebih
  • Dukungan server MCP memungkinkan integrasi langsung dengan lingkungan pengembangan AI seperti Cline, Codex, dan Goose
  • Kode contoh Python dan JavaScript disediakan di repositori GitHub resmi

Memulai

  • Pencarian web tersedia secara bawaan dengan akun Ollama gratis, sementara penggunaan yang lebih tinggi dapat diakses melalui langganan berbayar
  • Buat akun di situs web Ollama, terbitkan API key, lalu langsung gunakan layanannya

3 komentar

 
shakespeares 2025-10-06

Sepertinya versi gratis Ollama belum akan cukup layak untuk dipakai dalam penggunaan nyata..

 
slowandsnow 2025-09-30

Bahkan di halaman harga pun tidak ada penjelasan soal kuota, jadi sulit menilai apakah ini sepadan dengan biayanya.

 
GN⁺ 2025-09-29
Komentar Hacker News
  • Penasaran mesin pencari apa yang dipakai secara internal, bahkan sempat ditanyakan juga lewat Twitter https://twitter.com/simonw/status/1971210260015919488. Bagian yang paling penting khususnya adalah lisensi hasil pencarian. Apakah boleh disimpan atau didistribusikan ulang, karena aturan tiap penyedia berbeda-beda
    • Kami bekerja sama dengan penyedia pencarian dan memastikan lingkungan tanpa kebijakan retensi data sama sekali. Hasil pencarian dimiliki pengguna dan bebas digunakan. Namun, hukum setempat tetap harus dipatuhi
    • Kalau dikatakan untuk pelatihan model AI, katanya bisa dipakai sesuka hati
    • Jika hasil pencarian hanya berupa daftar tautan, saya ragu apakah hak cipta itu sendiri memang berlaku
    • Aneh rasanya fitur seperti ini dirilis bahkan tanpa kebijakan privasi. Saya jadi menduga jangan-jangan ini akan dipakai sebagai contoh kolaborasi atau customer story dengan partner VC yang baru-baru ini berinvestasi. Saya menebak Exa; dulu didukung YC dan telah menggalang $85M pada Series B. Bing mungkin terlalu mahal untuk dioperasikan secara bebas tanpa kerja sama dengan Microsoft. Semoga Ollama segera memperbarui pemberitahuan privasinya. Karena kantor pusatnya ada di CA, mereka termasuk cakupan CCPA; bahkan tanpa pendapatan pun tetap kena jika hanya menangani data 50 ribu warga California https://oag.ca.gov/privacy/ccpa. Kalau ternyata penyedia backend tanpa retensi data itu adalah Alibaba, saya penasaran bagaimana reaksinya
  • Saya penasaran apakah Ollama memang sebuah bisnis, dan saya juga tidak tahu kalau mereka menerima investasi. Saya kira ini utilitas open source. Saya penasaran bagaimana rencana mereka memonetisasi pengguna ke depan, dan saya tidak terlalu optimistis
    • Belakangan ini hampir tidak ada proyek yang dirilis sepenuhnya open source; kebanyakan memakai model donasi atau sponsor perusahaan, dan di bidang AI menurut saya malah lebih jarang lagi
    • Ollama dijalankan oleh mantan karyawan Docker dengan gaya Docker
    • Belum lama ini mereka meluncurkan platform hosting
    • Sebelum melihat balasanmu, saya kira tulisan ini tentang OpenAI
  • Saya berharap ada informasi lebih rinci tentang cara implementasi Ollama. Saya melihatnya sebagai tool open source yang independen dari platform, tetapi belakangan suasananya terasa berbeda sehingga saya jadi bimbang
    • Kami juga mempertimbangkan menambahkan fitur ke Ollama untuk mengambil hasil pencarian dan konten situs web dengan headless browser dan semacamnya, tetapi kami khawatir soal kualitas hasil dan pemblokiran IP (karena bisa terlihat seperti crawler). Kami pikir menghadirkan hosted API adalah jalur tercepat untuk memberi hasil dengan cepat, tetapi kami terus mengeksplorasi opsi lokal juga. Idealnya, akan bagus jika pengguna yang menginginkannya bisa memakai fitur pencarian seperti ini sepenuhnya dalam lingkungan lokal
    • GUI-nya bukan open source. Kalau ingin aplikasi yang mudah dipakai, mungkin lebih baik pakai LMStudio (karena setidaknya tidak berpura-pura sebagai OSS), dan ramalama juga mirip ollama dalam hal mengontainerkan LLM. Atau bisa juga kembali ke “fondasi dasar” seperti llama.cpp atau vllm
    • Rasanya cara Ollama dijalankan makin memburuk, saya sudah kehilangan kepercayaan dan menghapusnya dari semua sistem
  • Ollama tampaknya makin bergerak ke arah non-lokal, dan menurut saya performanya juga kalah dari vLLM. Saya ingin menjalankan sesuatu seperti open-webui lewat API yang kompatibel dengan OpenAI dan membuat lingkungan tempat pengguna bisa memilih di antara beberapa LLM, jadi saya penasaran alternatif Ollama yang cocok untuk memanfaatkan beberapa RTX 3090 (1–5 unit)
    • Saya pernah dengar tentang Llamaswap atau vllm
  • Saya tidak tahu Ollama punya layanan cloud sendiri. Bukankah tujuan awal Ollama adalah model lokal? Saya jadi bertanya-tanya kenapa harus bayar $20 per bulan untuk memakai ini demi model yang lebih kecil dan kurang bertenaga. Bukankah lebih baik pakai perusahaan AI seperti OpenAI atau Mistral? Saya juga tidak merasa perlu sampai harus membuat akun hanya untuk memakai model di komputer saya sendiri
    • Pertanyaan yang bagus. Di antara model yang didukung, ada banyak juga yang terlalu besar untuk dijalankan di perangkat. Ini masih tahap awal, dan berkat relasi kami dengan penyedia model, Ollama sekarang juga bisa menerima model mutakhir berbasis cloud. Ollama berpihak pada developer dan bertujuan menyelesaikan kebutuhan mereka https://ollama.com/cloud
    • Alasan membuat akun adalah untuk memakai model hosting mereka atau memanfaatkan model secara lokal lewat Ollama API. Saat ini saya membayar $100 untuk Claude dan $200 untuk GPT-5, jadi $20 itu sangat murah untuk bisa memakai model-model seperti ini: Qwen3 235b, Deepseek 3.1 671b, Llama 3.1 405b, GPT OSS 120b dan lainnya; ini jelas bukan model yang “kecil atau lemah”. Hal keren lainnya adalah bisa menghubungkan Codex ke Ollama API agar tool dapat dipakai dengan berbagai model
    • Saya melihat ini sebagai kelanjutan dari alur yang terus bergerak ke fitur-fitur yang bisa dimonetisasi. Bangun kepercayaan dan merek lewat open source dan tenaga kerja gratis, lalu beralih ke monetisasi tunai
    • Ada juga model yang memang tidak bisa dijalankan secara lokal (gpt-oss-120b, deepseek, qwen3-coder 480b, dll.). Ini adalah cara untuk memonetisasi keberhasilan Ollama
    • Bahkan banyak model “lokal” juga berukuran unduhan besar dan lambat di hardware biasa. Keuntungannya adalah bisa dievaluasi dulu dengan murah di cloud lalu memutuskan apakah akan diunduh dan dijalankan sendiri secara lokal. Yang penting adalah prinsip bahwa kita benar-benar “bisa” menjalankan sesuatu secara lokal. Saya tidak suka bergantung pada teknologi yang bisa dengan mudah ditarik atau diblokir oleh seseorang
  • Agak berbeda, tapi saya berpikir membangun “mini Google” di rumah untuk penggunaan pribadi. Saya merasa untuk kebutuhan pencarian yang nyata, sebagian besar bisa diselesaikan hanya dalam sekitar 1.000 situs web. Merayapi seluruh web terlalu berlebihan buat saya. Rancangan kasarnya adalah crawler (scraper ringan), indexer (konversi teks dan inverted index), storage (penyimpanan terkompresi HTML dan teks), lapisan pencarian (skoring berbasis TF-IDF atau embedding), pembaruan berkala, dan penjelajahan lewat web UI sederhana. Saya penasaran apakah ada proyek yang benar-benar pernah dipakai atau orang yang pernah mencoba tantangan serupa
    • Saya pernah melihat dump Common Crawl, dan 99,99% web benar-benar tidak berguna buat saya: iklan, pornografi, spam, blog tanpa makna, dan semacamnya. Mungkin ada nilai historis, budaya, atau sastra, tetapi untuk tujuan saya hampir sama sekali tidak berguna. Justru dari situ saya jadi yakin bahwa kalau hanya mengindeks “halaman web yang benar-benar penting”, itu cukup mungkin dilakukan bahkan di laptop saya. Wikipedia saja sekitar 20GB (terkompresi), jadi kalau hanya mengambil topik yang benar-benar ingin saya ketahui, mungkin bahkan tidak sampai 200MB
    • Sebagian besar itu bisa dilakukan dengan YaCy (https://yacy.net). Hanya saja kalau terlalu banyak crawling, IP bisa cepat diblokir oleh Cloudflare
    • Saya juga sangat suka https://marginalia-search.com
    • Drew DeVault dulu pernah mencoba membuat sesuatu yang mirip bernama SearchHut, lalu menghentikannya. Ia akhirnya menyerah saat berusaha memahami ekstensi Postgres RUM tautan thread HN yang menyebut SearchHut
    • Tidak persis sama, tetapi saya juga memakai Google CSE per domain untuk membatasi hasil pencarian hanya ke situs yang sesuai topik minat. Saya memanggilnya langsung dengan shortcut dari Alfred, jadi setidaknya untuk bidang minat saya pencarian jadi nyaman https://blog.gingerbeardman.com/2021/04/20/interest-specific-search-engines/
  • Akan bagus kalau ada tips terkait pencarian lokal/enterprise. Saya memakai Ollama secara lokal dan juga mengindeks dokumen saya sendiri. Yang saya ingin tahu adalah cara menghubungkan Ollama ke sistem full-text search tradisional, bukan meng-embedding dokumen atau melakukan fine-tuning
    • Saya merekomendasikan solr. Full-text search-nya sangat bagus dan ada integrasi mcp juga jadi mudah dipakai https://github.com/mjochum64/mcp-solr-search. Dengan sedikit pekerjaan tambahan, dokumen bisa divektorisasi untuk sekaligus melakukan pencarian kesamaan semantik berbasis knn. Karena bisa memakai pencarian semantik maupun teks, kualitasnya juga bagus. Mungkin juga bisa menghubungkan chromadb dan solr lalu menggabungkan hasilnya, meski kalau skalanya membesar saya bertanya-tanya apakah chromadb akan lebih efisien
    • docling juga bisa jadi alternatif yang baik, dan mesin full-text search yang sudah terbukti seperti Typesense juga layak dipertimbangkan
  • Saya sudah lama memakai fitur pencarian pada LLM dengan menghubungkan paket Python DuckDuckGo. Tapi hasil Google lebih bagus, jadi saya mengubahnya ke Google dengan mengatur sesuatu di developer console (saya tidak ingat persis apa). Sisi DDG itu tidak resmi, dan API resmi Google punya batas query (jadi tidak cocok untuk riset mendalam). Biasanya saya memasukkan beberapa hasil pencarian ke GPT dan menambahkan pertanyaan saya, lalu sebagian besar waktu hasilnya bagus. Struktur ini tentu bisa dipakai juga di Ollama, tetapi GPU saya kurang bagus jadi kalau konteksnya panjang kecepatannya melambat
    • Saya penasaran bagaimana caranya agar bisa dipakai secara bermakna tanpa API scraping, karena API resmi terlalu terbatas
  • Saya bingung apa maksud “akun Ollama”, karena awalnya saya memahami bahwa inti Ollama adalah self-hosting model
    • Untuk fitur tambahan atau model cloud yang di-host oleh Ollama, memang perlu membuat akun. Pada dasarnya ini benar-benar opsional, dan tetap memungkinkan membuat model sendiri sepenuhnya secara lokal lalu membagikannya di ollama.com
  • Saya juga baru saja menghubungkan web search dan sedang membuat tool sambil menguji beberapa vendor. openAI, xAI, dan gemini tidak bisa dipakai di situs pesaing karena diblokir. Dalam video YT, pencarian ini tampak bekerja baik berdasarkan uji sederhana, dan berbeda dari OpenAI web search, aksesnya memungkinkan. Di X hasilnya kurang bagus, tetapi kadang memberi hasil yang lumayan. Tidak sempurna, tetapi rata-rata hasilnya cukup berguna