- Memanfaatkan library MLX untuk berjalan langsung di Mac, sehingga model terbaru dan kuat Qwen3-30B-A3B-8bit bisa disajikan secara lokal
- Menghubungkannya di Localforge dengan gaya OpenAI API untuk membangun agent loop
- Menambahkan model pendamping berbasis ollama (Gemma3) agar peran bantuan agen dipisahkan sehingga penggunaan alat menjadi efisien
- Setelah dikonfigurasi di UI Localforge, agen dapat menjalankan "eksekusi tool LS", membuat website, hingga menjalankan game snake secara otomatis
- Semua proses ini gratis dan dapat berjalan sepenuhnya secara mandiri di lokal, proyek yang layak dicoba langsung oleh pengguna Mac
Menjalankan Qwen3 secara lokal di Mac
Konfigurasi Localforge
- Situs resmi: https://localforge.dev
- Setelah instalasi, konfigurasi berikut diperlukan di pengaturan:
-
Tambahkan provider
- a) Provider Ollama (model pendamping)
- Nama: LocalOllama
- Tipe: ollama
- Instalasi diperlukan: model gemma3:latest (cocok untuk pemrosesan bahasa sederhana)
-
b) Provider Qwen3 (model utama)
-
Buat agen
- Nama: qwen3-agent
- Model utama: qwen3:mlx:30b (nama model:
mlx-community/Qwen3-30B-A3B-8bit)
- Model pendamping: LocalOllama (nama model:
gemma3:latest)
Kesimpulan
- Di Mac, model besar dapat dijalankan secara lokal gratis untuk otomatisasi coding berbasis agen
- Hasil yang lebih presisi juga dimungkinkan melalui pemilihan model atau tuning system prompt
- Localforge + MLX + Qwen3 adalah kombinasi yang sangat berguna untuk eksperimen LLM pribadi
3 komentar
Kalau 30b berjalan secara lokal, itu sangat bagus, ya? Qwen2.5-Coder kurang bagus, tapi ini sepertinya layak dicoba.
Qwen3 - Model bahasa generasi berikutnya yang berpikir lebih dalam dan bertindak lebih cepat
Komentar Hacker News
Sedang menggunakan model Qwen3-30B-A3B secara lokal dan sangat terkesan. Ini tampaknya bisa menjadi alternatif bagi orang-orang yang menunggu GPT-4. Mendapatkan 70 tok/s di M3 Max sehingga sangat nyaman digunakan
Menjalankan qwen3 dan memanggil alat
lsbukanlah "vibe coding". Ini terlihat seperti iklan untuk LocalForgeIngin memuji MLX dan MLX-LM. Sedang menggunakannya untuk fine-tuning model Gemma 3 secara lokal, dan library serta alat yang dibuat para pengembang Apple tersusun dengan baik
Secara tidak sengaja membuat Qwen3 masuk ke loop dengan prompt sederhana
Apakah ada yang tahu pengaturan dengan MCP di mana LLM lokal bisa berkolaborasi mengerjakan tugas, mengompresi konteks, atau bekerja sama dengan agen cloud?
Ingin berbagi tutorial singkat untuk menjalankan agen otonom sungguhan secara lokal dan menyelesaikan tugas sederhana
Senang menemukan LocalForge. Punya pertanyaan tentang LocalForge. Apakah dua agen bisa digabungkan sehingga gambar dikirim ke agen multimodal untuk menghasilkan html/css, lalu agen lain menulis sisa kodenya?
Sangat mengesankan. Tidak harus sebagus model token berbayar
Terlihat bagus. Sedang mencari IDE dengan bantuan AI yang mengutamakan lokal untuk dipakai bersama Gemma 3 27B dari Google
Menjalankan model secara lokal kini mulai terasa menarik. Khususnya versi 30B-A3B tampak sebagai arah yang menjanjikan. Di VRAM 16 GB masih belum terjangkau, tetapi sudah cukup mendekati