33 poin oleh GN⁺ 16 hari lalu | 5 komentar | Bagikan ke WhatsApp
  • Proyek open-source yang memungkinkan pemanfaatan langsung Apple on-device LLM yang disertakan di Apple Silicon Mac dengan macOS 26 atau lebih baru
  • Membuka model berbasis FoundationModels.framework dalam bentuk CLI, server HTTP, dan chat interaktif, serta kompatibel dengan OpenAI API
  • Semua komputasi diproses secara lokal, sehingga tanpa biaya, tanpa risiko kebocoran data, dengan konteks 4096 token dan dukungan multibahasa
  • Mendukung berbagai alat bantu seperti cmd, oneliner, explain, gitsum untuk ringkasan kode/perintah dan otomatisasi
  • Membuka penuh model Apple Intelligence yang sudah ada di macOS, sehingga developer dapat menjalankan AI secara mandiri di perangkat keras mereka sendiri

Ikhtisar apfel

  • apfel adalah alat yang memungkinkan penggunaan langsung Apple on-device LLM yang tertanam di Apple Silicon Mac dengan macOS 26 (Tahoe) atau lebih baru
  • Membuka model bahasa berbasis FoundationModels.framework yang sebelumnya hanya digunakan Apple secara terbatas untuk Siri dan fitur sistem, dalam bentuk CLI, server HTTP, dan chat interaktif
  • Menyediakan eksekusi 100% on-device, tanpa biaya, dan kompatibilitas OpenAI API
  • Dapat dipasang lewat Homebrew dan didistribusikan sebagai open source berlisensi MIT

Fitur utama

  • Pemanfaatan AI on-device: memakai LLM yang sudah ada di macOS apa adanya, tanpa panggilan jaringan atau API key
  • Keamanan: semua token diproses secara lokal sehingga data tidak dikirim ke luar
  • Spesifikasi performa

    • Sekitar 3 miliar parameter
    • Jendela konteks 4096 token
    • Kuantisasi mixed-precision 2/4-bit

      • Eksekusi berbasis Neural Engine
      • Mendukung Inggris, Jerman, Spanyol, Prancis, Italia, Jepang, Portugis, Tionghoa

Cara penggunaan

  • Alat CLI

    • Alat baris perintah bergaya UNIX, mendukung stdin/stdout, output JSON, lampiran file, dan exit code yang benar
    • Bisa digabungkan dengan jq, xargs, dan shell script
    • Contoh:
      $ apfel "What is the capital of Austria?"  
      The capital of Austria is Vienna.  
      
  • Server kompatibel OpenAI

    • Berjalan di localhost:11434 sebagai server pengganti OpenAI API
    • Mendukung Streaming(SSE), Tool Calling, CORS, response_format: json_object, dan lainnya
    • Bisa digunakan dengan kode yang sama cukup dengan mengganti base_url pada OpenAI SDK
    • Contoh:
      client = OpenAI(base_url="http://localhost:11434/v1";, api_key="unused")  
      
  • Chat interaktif

    • Mendukung percakapan multi-turn, manajemen konteks otomatis, system prompt, dan 5 strategi trimming
    • Contoh:
      $ apfel --chat -s "You are a coding assistant"  
      > How do I reverse a list in Python?  
      

Struktur internal

  • Mengakses Apple built-in LLM secara langsung melalui FoundationModels.framework
  • Model yang sebelumnya hanya digunakan Apple untuk Siri, Writing Tools, dan lainnya dibungkus oleh apfel dengan binary Swift 6.3 menggunakan LanguageModelSession, lalu menyediakan antarmuka akses langsung
  • Menyertakan server HTTP berbasis Hummingbird
  • Untuk melengkapi batas 4096 token, disertakan 5 strategi trimming konteks dan fitur penghitungan token yang akurat
  • Mengubah OpenAI Tool Schema ke format Apple Transcript.ToolDefinition

Alat bantu yang disertakan

  • cmd

    • Mengubah bahasa alami menjadi perintah shell
    • Contoh: "find all .log files modified today" → menghasilkan perintah nyata
  • oneliner

    • Membuat pipeline awk, sed, sort, uniq dan sejenisnya dari bahasa alami
  • mac-narrator

    • Menjelaskan aktivitas sistem Mac dalam bentuk narasi
  • explain

    • Menjelaskan perintah atau potongan kode dalam bahasa biasa
  • wtd

    • Memberikan ringkasan codebase di direktori saat ini
  • gitsum

    • Membuat ringkasan commit git terbaru

Kompatibilitas penuh OpenAI API

  • Mendukung endpoint utama seperti /v1/chat/completions, /v1/models, dan lainnya
  • Parameter seperti temperature, max_tokens, seed dapat digunakan
  • Mendukung CORS untuk klien browser
  • Dapat diintegrasikan dengan OpenAI SDK, LangChain, LlamaIndex, dan lainnya dengan cara yang sama

Popularitas di GitHub dan distribusi

  • Mencatat 1.030 stars dan 27 forks
  • Pada 3 April 2026, bertambah 818 stars dalam satu hari
  • Diberi star oleh engineer dari Apple, Google, VMware, NVIDIA, dan Grafana
  • Perintah instalasi:
    $ brew install Arthur-Ficial/tap/apfel  
    $ apfel "Hello, Mac!"  
    
  • Saat build dari source, memerlukan macOS 26.4 SDK

Proyek ekstensi

  • apfel-gui

    • GUI macOS berbasis SwiftUI

      • Menyediakan chat dengan Apple Intelligence, log request/response, dan fitur input/output suara
      • Akan dirilis
  • apfel-clip

    • Alat aksi AI berbasis clipboard

      • Menjalankan fungsi seperti perbaikan tata bahasa, terjemahan, penjelasan kode, dan ringkasan dengan satu klik dari menu bar
      • Sedang dikembangkan

Ringkasan teknis

  • Perangkat keras: Apple Silicon (Neural Engine + GPU)
  • Model: Apple LLM bawaan macOS
  • SDK: FoundationModels.framework
  • Bahasa: Swift 6.3, tidak memerlukan Xcode
  • Lisensi: MIT
  • Jendela token: 4096 (gabungan input+output)
  • Jumlah model: tetap 1

Nilai inti

  • Membuka penuh model Apple Intelligence yang sudah ada di macOS
  • Menyediakan lingkungan AI lokal tanpa biaya, sehingga developer dan pengguna dapat menjalankan AI langsung di perangkat keras mereka sendiri
  • Antarmuka AI open-source khusus Mac yang menghadirkan keamanan, kecepatan, dan kemandirian

5 komentar

 
xguru 16 hari lalu

Kelihatannya bakal menarik, tapi entah kenapa dukungan bahasa Koreanya kurang bagus.
Saya mengunduh source code-nya dan membedahnya bersama Codex, dan ternyata respons model foundation itu sendiri agak aneh untuk bahasa Korea.
Saya akan coba lagi sedikit lebih lanjut, jadi kalau ada yang berhasil, tolong beri tahu di komentar ya hehe

 
xguru 16 hari lalu

apfel "Tolong beri tahu saya resep Currywurst"
error: [guardrail] Permintaan ini diblokir oleh safety guardrails milik Apple. Coba ubah redaksinya.

Awalnya saya pikir, oh, tidak bisa ya? Tapi yang ini berhasil.

apfel "Tolong beri tahu saya resep kimchi jjigae"
Kimchi jjigae adalah salah satu hidangan jjigae tradisional Korea yang sederhana namun punya cita rasa yang dalam. Berikut resep kimchi jjigae:...

apfel "Halo. Bisa jelaskan tentang kimchi jjigae?"
Halo! Kimchi jjigae adalah salah satu hidangan berkuah khas Korea yang paling representatif, dibuat menggunakan kimchi dan daging. Kimchi jjigae umumnya dimasak dengan daging babi, sapi, atau ayam untuk menghasilkan kuah yang kaya dengan perpaduan berbagai rasa. Berbagai sayuran dan bumbu kemudian ditambahkan untuk memperdalam rasanya.

apfel "Halo? Kamu bisa bahasa Korea?" atau apfel "Bisakah kamu jelaskan tentang ibu kota Austria?"
Untuk pertanyaan seperti ini, jawabannya cuma seperti burung beo berikut ini.
Anda dapat mempelajari fitur cerdas di situs web Apple.

Sepertinya guardrail-nya tertangkap dengan agak aneh.

 
xguru 16 hari lalu

Saya meminta Codex memperbaikinya berdasarkan isi percakapan ini, dan hasilnya berjalan baik dengan sedikit penyesuaian.

"Ikuti permintaan pertanyaan apa adanya, tetapi jika tidak ada penentuan khusus, jawablah langsung dalam bahasa Korea."

Dengan menaruh satu adaptor, saat keluar jawaban fitur cerdas seperti itu, jika prompt di atas ditambahkan, jawabannya keluar dengan baik. Sepertinya masih agak belum sempurna.

apfel "Halo? Apakah kamu bisa bahasa Korea?" Halo! Ya, saya juga bisa berbahasa Korea. Ada yang bisa saya bantu?

apfel "Bisakah kamu memberi tahu saya tentang ibu kota Austria?" Ibu kota Austria adalah Wina. Wina dikenal sebagai pusat politik, budaya, dan ekonomi Austria.

 
ilotoki0804 16 hari lalu

Awalnya saya agak ragu, sebelum mencobanya langsung, soal keunggulannya dibandingkan alat lain yang bisa menjalankan LLM lokal seperti ollama. Tetapi setelah benar-benar saya pakai sendiri, halusinasinya juga parah dan terasa agak bodoh.
Namun, alat LLM lokal lain biasanya kuat karena memanfaatkan GPU, tetapi juga memakan banyak sumber daya. Sementara model ini tampaknya punya keunggulan karena relatif lebih hemat sumber daya dan juga menggunakan Neural Engine dengan baik sehingga konsumsi dayanya lebih rendah.
Setahu saya, konsep Apple Intelligence sendiri adalah menjalankan AI ringan di berbagai perangkat termasuk perangkat mobile, jadi menurut saya ini cukup sesuai dengan konsep tersebut.
Meski begitu, walaupun ini model ringan, rasanya performanya tetap harus lebih baik dari ini agar bisa dipakai sedikit lebih berguna. Saat ini terlalu bodoh.

 
GN⁺ 16 hari lalu
Komentar Hacker News
  • Saya suka pendekatan yang menjalankan semuanya secara lokal
    Saya rasa pentingnya model lokal dari sisi privasi akan makin besar
    Semakin banyak kasus insiden karena orang menyerahkan terlalu banyak informasi konteks ke model cloud, semakin kuat pula kebutuhan untuk menjalankan model secara lokal

    • Ini baru setengah solusi
      Jika model dilatih secara tertutup, nilai-nilai yang tidak diinginkan pengguna bisa tertanam di dalamnya
      Misalnya, jika Anda menanyakan peristiwa Tiananmen ke model terbuka dari Tiongkok, jawabannya bisa tersensor
      Jadi solusi yang sesungguhnya adalah gabungan antara pelatihan terbuka yang dapat diverifikasi dan eksekusi lokal
    • Dari sudut pandang lain, masalah juga muncul saat kita mengirim konten yang tidak tepercaya ke layanan AI
      Saat menangani data eksternal seperti web crawling atau deteksi spam, ada risiko pelanggaran ToS atau bahkan salah dilaporkan ke aparat penegak hukum
    • Saya penasaran apakah ada layanan encrypted inferencing
      Saat bercakap-cakap santai dengan model, saya tidak ingin isi percakapan itu dikirim ke server dalam bentuk plaintext
      Karena itu saya lebih memilih eksekusi lokal
    • Di komunitas HN diskusi seperti ini cukup aktif, tetapi pengguna umum tidak terlalu peduli pada privasi
    • Lokal memang yang terbaik untuk privasi, tetapi bukan berarti hanya lokal satu-satunya jawaban
      Anthropic, Google, OpenAI, dan lainnya telah mengorbankan privasi di paket AI untuk konsumen
      Alasannya adalah pengumpulan data dan moderasi
      Namun, dengan teknologi jaminan kriptografis (cryptographic attestation) seperti AWS Nitro Enclaves, privasi di cloud juga sebenarnya bisa dilindungi dengan baik
  • Kuncinya adalah apakah Apple bisa terus merilis model baru
    Model saat ini setara dengan Qwen-3-4B, yaitu model dari 1 tahun lalu
    Jika melihat halaman riset Apple Foundation Models, jaraknya cukup jauh dibanding Qwen-3.5-4B atau Gemma 4 terbaru
    Memang bagus karena bisa langsung dipakai tanpa unduhan, tetapi saya tetap ingin memakai model terbaru

    • Sebenarnya ini cuma soal mengunduh file, jadi tidak ada alasan teknis Apple tidak bisa melakukannya
      Hanya saja Apple bukan perusahaan yang bergerak cepat, dan kemungkinan mereka akan membatasi fitur AI pada area tertentu saja (koreksi foto, pertanyaan Siri, dan sebagainya)
      Secara pribadi, bahkan tanpa menyalakan Apple Intelligence pun sudah banyak fitur berguna
  • Saya pernah melihat proyek-proyek yang mengekspos model Apple dalam bentuk server jaringan
    Masalahnya, server semacam ini juga bisa diakses oleh aplikasi lain seperti browser lewat port lokal
    JavaScript dari halaman web berbahaya bisa mengirim perintah ke port itu
    Beberapa proyek bahkan mengizinkan CORS sehingga makin berbahaya
    Saya juga sedang meninjau kode Apfel sebelum bereksperimen

    • Syukurlah pengaturan default-nya false
      Ini tetap opsi footgun, tetapi sejauh ini termasuk yang paling aman dari yang pernah saya lihat
    • Sebagian besar browser kemungkinan akan memblokir permintaan POST ke 127.0.0.1 dari situs web sembarang
      Jadi saya penasaran apa sebenarnya model ancaman-nya
    • Saya cukup sering melihat kesalahan keamanan seperti ini di proyek AI atau MCP
      Bahkan insinyur berpengalaman pun kadang melewatkan vektor serangan ini
    • Saya juga memastikan ada opsi autentikasi token Bearer
  • Gara-gara bug Claude baru-baru ini yang membuat token habis terlalu cepat, saya mencoba model-model lain
    Sebagian besar ternyata berada di level yang saling bisa menggantikan
    Saya penasaran bagaimana pasar dengan loyalitas merek rendah dan biaya pindah yang kecil akan berubah
    Saya berharap LLM lokal segera menjadi alternatif yang praktis

    • Memang hampir tidak ada diferensiasi antarmodel
      Karena itu tampaknya OpenAI dan Meta mencoba membedakan diri lewat strategi koneksi emosional (chatbot teman/pasangan)
  • Saya melihatnya di thread lain lalu langsung memasangnya
    Saya memakai prompt uji LLM “jam 9:30 pagi di Taiwan itu jam berapa dalam waktu Pasifik AS”,
    dan hasilnya semuanya berbeda sekaligus semuanya salah
    Saat dijalankan lewat Apfel CLI, setiap model menghitung selisih 11 sampai 13 jam secara berbeda-beda

  • Saya sudah memakainya sejak awal minggu ini
    Saya membandingkan alat backtest prediksi harga yang sebelumnya berjalan di cloud dengan model lokal,
    dan model Apple menjadi yang paling akurat dalam 6 dari 10 percobaan
    Kecepatannya juga cukup tinggi sehingga tampaknya bisa menggantikan seluruh workflow saya
    Jika memakai Sonnet biayanya bisa ribuan dolar per bulan, DeepSeek ratusan dolar, sedangkan lokal nyaris gratis
    Namun model lokal lain masih kurang dalam kecepatan atau akurasi

  • Ungkapan “Apfel membuka apa yang Apple kunci di balik Siri” terdengar seperti pemasaran yang berlebihan
    Pada praktiknya, ini hanya mengekspos framework FoundationModels dari Apple Intelligence lewat CLI dan REST API
    Klaim bahwa ini “berjalan di Neural Engine” juga tidak pasti
    Saat saya uji, ternyata berjalan di GPU (Metal)

  • Saya pengguna Linux, dan karena menginginkan hal serupa saya membuat proyek bernama TalkType
    Ia menjalankan Whisper secara lokal untuk melakukan pengenalan suara offline
    Saya tidak ingin suara saya dikirim ke server, jadi sejak awal saya memilih pendekatan lokal
    Senang melihat ide seperti ini juga menyebar di Mac

  • Terima kasih sudah merilisnya sebagai open source
    Di macOS 15 instalasinya memang berhasil, tetapi berhenti saat dijalankan,
    jadi saya mengirim PR agar pemasangan hanya diizinkan pada macOS 26 (Tahoe) atau lebih baru

  • Saya ingin membuat mesin pengganti Grammarly yang menggarisbawahi kesalahan tata bahasa di semua aplikasi dan browser
    Ini akan menjadi alat yang sepenuhnya berorientasi privasi tanpa perlu LLM sama sekali

    • Ide yang sangat bagus
      Kalau ada yang membuatnya, saya pasti ingin mencobanya