- Proyek open-source yang memungkinkan pemanfaatan langsung Apple on-device LLM yang disertakan di Apple Silicon Mac dengan macOS 26 atau lebih baru
- Membuka model berbasis FoundationModels.framework dalam bentuk CLI, server HTTP, dan chat interaktif, serta kompatibel dengan OpenAI API
- Semua komputasi diproses secara lokal, sehingga tanpa biaya, tanpa risiko kebocoran data, dengan konteks 4096 token dan dukungan multibahasa
- Mendukung berbagai alat bantu seperti cmd, oneliner, explain, gitsum untuk ringkasan kode/perintah dan otomatisasi
- Membuka penuh model Apple Intelligence yang sudah ada di macOS, sehingga developer dapat menjalankan AI secara mandiri di perangkat keras mereka sendiri
Ikhtisar apfel
- apfel adalah alat yang memungkinkan penggunaan langsung Apple on-device LLM yang tertanam di Apple Silicon Mac dengan macOS 26 (Tahoe) atau lebih baru
- Membuka model bahasa berbasis FoundationModels.framework yang sebelumnya hanya digunakan Apple secara terbatas untuk Siri dan fitur sistem, dalam bentuk CLI, server HTTP, dan chat interaktif
- Menyediakan eksekusi 100% on-device, tanpa biaya, dan kompatibilitas OpenAI API
- Dapat dipasang lewat Homebrew dan didistribusikan sebagai open source berlisensi MIT
Fitur utama
- Pemanfaatan AI on-device: memakai LLM yang sudah ada di macOS apa adanya, tanpa panggilan jaringan atau API key
- Keamanan: semua token diproses secara lokal sehingga data tidak dikirim ke luar
-
Spesifikasi performa
- Sekitar 3 miliar parameter
- Jendela konteks 4096 token
-
Kuantisasi mixed-precision 2/4-bit
- Eksekusi berbasis Neural Engine
- Mendukung Inggris, Jerman, Spanyol, Prancis, Italia, Jepang, Portugis, Tionghoa
Cara penggunaan
-
Alat CLI
-
Server kompatibel OpenAI
-
Chat interaktif
Struktur internal
- Mengakses Apple built-in LLM secara langsung melalui FoundationModels.framework
- Model yang sebelumnya hanya digunakan Apple untuk Siri, Writing Tools, dan lainnya dibungkus oleh apfel dengan binary Swift 6.3 menggunakan
LanguageModelSession, lalu menyediakan antarmuka akses langsung
- Menyertakan server HTTP berbasis Hummingbird
- Untuk melengkapi batas 4096 token, disertakan 5 strategi trimming konteks dan fitur penghitungan token yang akurat
- Mengubah OpenAI Tool Schema ke format Apple Transcript.ToolDefinition
Alat bantu yang disertakan
-
cmd
- Mengubah bahasa alami menjadi perintah shell
- Contoh:
"find all .log files modified today" → menghasilkan perintah nyata
-
oneliner
- Membuat pipeline awk, sed, sort, uniq dan sejenisnya dari bahasa alami
-
mac-narrator
- Menjelaskan aktivitas sistem Mac dalam bentuk narasi
-
explain
- Menjelaskan perintah atau potongan kode dalam bahasa biasa
-
wtd
- Memberikan ringkasan codebase di direktori saat ini
-
gitsum
- Membuat ringkasan commit git terbaru
Kompatibilitas penuh OpenAI API
- Mendukung endpoint utama seperti /v1/chat/completions, /v1/models, dan lainnya
- Parameter seperti temperature, max_tokens, seed dapat digunakan
- Mendukung CORS untuk klien browser
- Dapat diintegrasikan dengan OpenAI SDK, LangChain, LlamaIndex, dan lainnya dengan cara yang sama
Popularitas di GitHub dan distribusi
Proyek ekstensi
-
apfel-gui
-
GUI macOS berbasis SwiftUI
- Menyediakan chat dengan Apple Intelligence, log request/response, dan fitur input/output suara
- Akan dirilis
-
apfel-clip
-
Alat aksi AI berbasis clipboard
- Menjalankan fungsi seperti perbaikan tata bahasa, terjemahan, penjelasan kode, dan ringkasan dengan satu klik dari menu bar
- Sedang dikembangkan
Ringkasan teknis
- Perangkat keras: Apple Silicon (Neural Engine + GPU)
- Model: Apple LLM bawaan macOS
- SDK: FoundationModels.framework
- Bahasa: Swift 6.3, tidak memerlukan Xcode
- Lisensi: MIT
- Jendela token: 4096 (gabungan input+output)
- Jumlah model: tetap 1
Nilai inti
- Membuka penuh model Apple Intelligence yang sudah ada di macOS
- Menyediakan lingkungan AI lokal tanpa biaya, sehingga developer dan pengguna dapat menjalankan AI langsung di perangkat keras mereka sendiri
- Antarmuka AI open-source khusus Mac yang menghadirkan keamanan, kecepatan, dan kemandirian
5 komentar
Kelihatannya bakal menarik, tapi entah kenapa dukungan bahasa Koreanya kurang bagus.
Saya mengunduh source code-nya dan membedahnya bersama Codex, dan ternyata respons model foundation itu sendiri agak aneh untuk bahasa Korea.
Saya akan coba lagi sedikit lebih lanjut, jadi kalau ada yang berhasil, tolong beri tahu di komentar ya hehe
Awalnya saya pikir, oh, tidak bisa ya? Tapi yang ini berhasil.
Sepertinya guardrail-nya tertangkap dengan agak aneh.
Saya meminta Codex memperbaikinya berdasarkan isi percakapan ini, dan hasilnya berjalan baik dengan sedikit penyesuaian.
"Ikuti permintaan pertanyaan apa adanya, tetapi jika tidak ada penentuan khusus, jawablah langsung dalam bahasa Korea."
Dengan menaruh satu adaptor, saat keluar jawaban fitur cerdas seperti itu, jika prompt di atas ditambahkan, jawabannya keluar dengan baik. Sepertinya masih agak belum sempurna.
Awalnya saya agak ragu, sebelum mencobanya langsung, soal keunggulannya dibandingkan alat lain yang bisa menjalankan LLM lokal seperti ollama. Tetapi setelah benar-benar saya pakai sendiri, halusinasinya juga parah dan terasa agak bodoh.
Namun, alat LLM lokal lain biasanya kuat karena memanfaatkan GPU, tetapi juga memakan banyak sumber daya. Sementara model ini tampaknya punya keunggulan karena relatif lebih hemat sumber daya dan juga menggunakan Neural Engine dengan baik sehingga konsumsi dayanya lebih rendah.
Setahu saya, konsep Apple Intelligence sendiri adalah menjalankan AI ringan di berbagai perangkat termasuk perangkat mobile, jadi menurut saya ini cukup sesuai dengan konsep tersebut.
Meski begitu, walaupun ini model ringan, rasanya performanya tetap harus lebih baik dari ini agar bisa dipakai sedikit lebih berguna. Saat ini terlalu bodoh.
Komentar Hacker News
Saya suka pendekatan yang menjalankan semuanya secara lokal
Saya rasa pentingnya model lokal dari sisi privasi akan makin besar
Semakin banyak kasus insiden karena orang menyerahkan terlalu banyak informasi konteks ke model cloud, semakin kuat pula kebutuhan untuk menjalankan model secara lokal
Jika model dilatih secara tertutup, nilai-nilai yang tidak diinginkan pengguna bisa tertanam di dalamnya
Misalnya, jika Anda menanyakan peristiwa Tiananmen ke model terbuka dari Tiongkok, jawabannya bisa tersensor
Jadi solusi yang sesungguhnya adalah gabungan antara pelatihan terbuka yang dapat diverifikasi dan eksekusi lokal
Saat menangani data eksternal seperti web crawling atau deteksi spam, ada risiko pelanggaran ToS atau bahkan salah dilaporkan ke aparat penegak hukum
Saat bercakap-cakap santai dengan model, saya tidak ingin isi percakapan itu dikirim ke server dalam bentuk plaintext
Karena itu saya lebih memilih eksekusi lokal
Anthropic, Google, OpenAI, dan lainnya telah mengorbankan privasi di paket AI untuk konsumen
Alasannya adalah pengumpulan data dan moderasi
Namun, dengan teknologi jaminan kriptografis (cryptographic attestation) seperti AWS Nitro Enclaves, privasi di cloud juga sebenarnya bisa dilindungi dengan baik
Kuncinya adalah apakah Apple bisa terus merilis model baru
Model saat ini setara dengan Qwen-3-4B, yaitu model dari 1 tahun lalu
Jika melihat halaman riset Apple Foundation Models, jaraknya cukup jauh dibanding Qwen-3.5-4B atau Gemma 4 terbaru
Memang bagus karena bisa langsung dipakai tanpa unduhan, tetapi saya tetap ingin memakai model terbaru
Hanya saja Apple bukan perusahaan yang bergerak cepat, dan kemungkinan mereka akan membatasi fitur AI pada area tertentu saja (koreksi foto, pertanyaan Siri, dan sebagainya)
Secara pribadi, bahkan tanpa menyalakan Apple Intelligence pun sudah banyak fitur berguna
Saya pernah melihat proyek-proyek yang mengekspos model Apple dalam bentuk server jaringan
Masalahnya, server semacam ini juga bisa diakses oleh aplikasi lain seperti browser lewat port lokal
JavaScript dari halaman web berbahaya bisa mengirim perintah ke port itu
Beberapa proyek bahkan mengizinkan CORS sehingga makin berbahaya
Saya juga sedang meninjau kode Apfel sebelum bereksperimen
Ini tetap opsi footgun, tetapi sejauh ini termasuk yang paling aman dari yang pernah saya lihat
Jadi saya penasaran apa sebenarnya model ancaman-nya
Bahkan insinyur berpengalaman pun kadang melewatkan vektor serangan ini
Gara-gara bug Claude baru-baru ini yang membuat token habis terlalu cepat, saya mencoba model-model lain
Sebagian besar ternyata berada di level yang saling bisa menggantikan
Saya penasaran bagaimana pasar dengan loyalitas merek rendah dan biaya pindah yang kecil akan berubah
Saya berharap LLM lokal segera menjadi alternatif yang praktis
Karena itu tampaknya OpenAI dan Meta mencoba membedakan diri lewat strategi koneksi emosional (chatbot teman/pasangan)
Saya melihatnya di thread lain lalu langsung memasangnya
Saya memakai prompt uji LLM “jam 9:30 pagi di Taiwan itu jam berapa dalam waktu Pasifik AS”,
dan hasilnya semuanya berbeda sekaligus semuanya salah
Saat dijalankan lewat Apfel CLI, setiap model menghitung selisih 11 sampai 13 jam secara berbeda-beda
Saya sudah memakainya sejak awal minggu ini
Saya membandingkan alat backtest prediksi harga yang sebelumnya berjalan di cloud dengan model lokal,
dan model Apple menjadi yang paling akurat dalam 6 dari 10 percobaan
Kecepatannya juga cukup tinggi sehingga tampaknya bisa menggantikan seluruh workflow saya
Jika memakai Sonnet biayanya bisa ribuan dolar per bulan, DeepSeek ratusan dolar, sedangkan lokal nyaris gratis
Namun model lokal lain masih kurang dalam kecepatan atau akurasi
Ungkapan “Apfel membuka apa yang Apple kunci di balik Siri” terdengar seperti pemasaran yang berlebihan
Pada praktiknya, ini hanya mengekspos framework FoundationModels dari Apple Intelligence lewat CLI dan REST API
Klaim bahwa ini “berjalan di Neural Engine” juga tidak pasti
Saat saya uji, ternyata berjalan di GPU (Metal)
Saya pengguna Linux, dan karena menginginkan hal serupa saya membuat proyek bernama TalkType
Ia menjalankan Whisper secara lokal untuk melakukan pengenalan suara offline
Saya tidak ingin suara saya dikirim ke server, jadi sejak awal saya memilih pendekatan lokal
Senang melihat ide seperti ini juga menyebar di Mac
Terima kasih sudah merilisnya sebagai open source
Di macOS 15 instalasinya memang berhasil, tetapi berhenti saat dijalankan,
jadi saya mengirim PR agar pemasangan hanya diizinkan pada macOS 26 (Tahoe) atau lebih baru
Saya ingin membuat mesin pengganti Grammarly yang menggarisbawahi kesalahan tata bahasa di semua aplikasi dan browser
Ini akan menjadi alat yang sepenuhnya berorientasi privasi tanpa perlu LLM sama sekali
Kalau ada yang membuatnya, saya pasti ingin mencobanya