- Perusahaan-perusahaan AI besar sedang beralih ke model bisnis berbasis pendapatan iklan, sambil mengembangkan asisten AI berbasis hardware yang mengumpulkan seluruh informasi visual dan audio di sekitar pengguna
- AI always-on seperti ini dirancang untuk mengenali percakapan harian pengguna tanpa kata pemicu suara, menumpuk konteks jangka panjang, lalu memberikan bantuan proaktif
- Namun, dalam struktur di mana data ini dikirim ke server perusahaan iklan, risiko bisa muncul kapan saja jika kebijakan privasi berubah
- Sebaliknya, dalam struktur inferensi lokal on-device (edge inference), data secara fisik tidak keluar ke luar perangkat, sehingga dimungkinkan jaminan keamanan di level arsitektur, bukan sekadar kebijakan
- AI yang paling berguna sekaligus akan menjadi teknologi yang paling privat, sehingga peralihan ke AI lokal yang tidak mengirim data ke luar menjadi hal yang esensial
Industri asisten AI yang berubah menjadi struktur berbasis iklan
- OpenAI telah memperkenalkan iklan ke ChatGPT, dan ini dipandang sebagai perubahan struktural di seluruh industri
- Pada 2025, OpenAI mengakuisisi startup hardware milik Jony Ive, io, senilai 6,5 miliar dolar AS dan sedang mengembangkan perangkat AI kecil tanpa layar
- Semua perusahaan asisten AI besar beroperasi dengan pendapatan iklan dan sedang membuat hardware yang selalu mengamati lingkungan sekitar
- Ketika dua elemen ini berbenturan, hanya inferensi lokal on-device (local inference) yang diajukan sebagai satu-satunya solusi untuk mencegah penyalahgunaan data
Keniscayaan AI yang selalu aktif
- Asisten suara sebelumnya hanya bekerja setelah kata pemicu (wake word) seperti “Hey Siri” atau “OK Google” diucapkan
- Namun dalam percakapan kehidupan nyata, sering kali tidak ada kesempatan untuk memakai kata pemicu, sehingga dibutuhkan AI yang mengenali konteks secara alami
- Asisten generasi berikutnya akan terus-menerus memahami lingkungan pengguna melalui berbagai sensor seperti audio, visi, deteksi keberadaan, dan wearable
- Karena itu, pertanyaannya bukan lagi “apakah AI selalu aktif akan muncul”, melainkan siapa yang mengendalikan data tersebut
- Saat ini, kendali itu ada di tangan perusahaan iklan
Kebijakan adalah janji, arsitektur adalah jaminan
- Perusahaan mengedepankan hal-hal seperti “enkripsi data”, “anonimisasi”, dan “tidak terkait iklan”, tetapi dalam struktur pemrosesan cloud, kepercayaan penuh tidak mungkin diberikan
- Pengguna harus mempercayai kebijakan perusahaan saat ini dan di masa depan, pegawai internal, vendor eksternal, permintaan pemerintah, hingga mitra iklan yang tidak diungkap
- OpenAI memang menyatakan bahwa mereka “tidak menjual data kepada pengiklan”, tetapi ada preseden Google yang menggunakan Gmail selama 13 tahun untuk penargetan iklan
- Kebijakan bisa berubah, tetapi arsitektur tidak
- Dalam struktur pemrosesan lokal, data secara fisik tidak bisa keluar ke luar perangkat
- Panggilan API, telemetri jarak jauh, dan pengiriman data penggunaan yang dianonimkan menjadi tidak mungkin
- Aliran audio dan video di dalam rumah, yang jauh lebih sensitif daripada email, mencakup keseluruhan kehidupan privat seseorang
- Seperti pada kasus Amazon, penghapusan pemrosesan suara lokal, rencana integrasi iklan, dan izin akses penegak hukum ke Ring menunjukkan risiko dari struktur yang tersentralisasi
Kematangan teknologi inferensi edge
- Di masa lalu ada sanggahan bahwa “model lokal kurang bertenaga”, tetapi kini sudah mencapai tingkat yang memadai
- Pengenalan suara real-time, memori semantik, penalaran percakapan, hingga sintesis suara, semuanya memungkinkan dijalankan sebagai pipeline AI lengkap di perangkat rumah
- Berjalan tanpa suara kipas, dengan pembelian hardware satu kali, dan tanpa pengiriman data ke luar
- Hal ini dimungkinkan berkat kemajuan pada kompresi model, mesin inferensi open source, dan silikon yang efisien, dengan efisiensi daya per performa yang terus meningkat setiap tahun
- Bahkan dalam rumah uji nyata, masalah utamanya adalah sulitnya memahami konteks, bukan ukuran model atau kekurangan performa
- Karena itu, dibutuhkan model bisnis yang berpusat pada penjualan hardware dan software,
- di mana produsen harus merancang struktur yang secara fisik tidak memungkinkan akses ke data
Kebutuhan akan AI lokal dan kesimpulan
- AI yang paling berguna akan menjadi teknologi yang menangani informasi paling privat
- Satu-satunya cara untuk menjaganya tetap aman adalah desain struktural yang tidak memungkinkan data dikirim ke luar
- Perlindungan tidak bisa dicapai hanya dengan kebijakan, janji, atau perubahan pengaturan; yang dibutuhkan adalah pemblokiran di level arsitektur
- Dengan kalimat “Choose local. Choose edge.”, tulisan ini menyerukan pembangunan AI yang tidak mengirim data ke luar
1 komentar
Komentar Hacker News
Rasanya lucu melihat promosi ini ketika produk yang mereka jual adalah perangkat AI yang selalu aktif dan selalu mendengarkan
Sekalipun hanya berjalan di perangkat lokal, tidak berarti setiap momen dalam hidup kita perlu direkam dan dianalisis
Muncul pertanyaan apakah kita benar-benar nyaman jika percakapan privat keluarga atau momen anak di bawah umur ikut tersimpan
Saya juga khawatir apakah tamu sudah memberi persetujuan, dan apakah jaminan privasi bisa dipertahankan saat terjadi pencurian, surat perintah pemerintah, atau akuisisi/merger
Jika pengadilan memerintahkan, pada akhirnya data itu akan diserahkan dalam bentuk apa pun
Untuk menjaga privasi yang sesungguhnya, informasi itu seharusnya tidak ada sejak awal
Saya berharap ada legislasi yang melindungi informasi seperti yang ada di dalam otak seseorang, tetapi kenyataannya justru bergerak ke arah sebaliknya
Namun, sama sekali tidak boleh jika data keluar tanpa izin saya, bisa diekstrak secara fisik dengan mudah, atau seseorang bisa mengaksesnya dengan menyamar sebagai saya
Jika syarat-syarat ini terpenuhi, saya rasa privasi orang lain juga tidak akan dilanggar
Targetnya adalah orang-orang yang peduli pada privasi, padahal merekalah yang pertama kali akan menunjukkan masalah seperti ini
Pada akhirnya, orang yang tidak terlalu peduli soal privasi akan langsung memakai sesuatu seperti Google
Saya juga pernah ingin membuat perangkat AI lokal seperti ini, tetapi terus saya tunda karena malas
Meski begitu, saya pikir perangkat seperti ini bisa sangat berguna, sampai mengubah hidup, bagi orang-orang neurodiverse
Kelihatannya sistem ini memproses secara real-time lalu hanya mengambil tindakan yang membantu pengguna mencapai tujuannya
Saya setuju bahwa perusahaan AI besar bergerak dengan fokus pada pendapatan iklan
AI yang selalu hadir di dalam rumah sulit menghindari persoalan privasi
Seperti The Entire History of You dari Black Mirror atau The Truth of Fact, the Truth of Feeling karya Ted Chiang, pada akhirnya bahkan ruang privat pun tampaknya akan dipenuhi pengawasan
Dalam arus seperti ini, orang yang menolak teknologi mungkin akan makin terdorong ke pinggiran sosial
Saya tidak setuju dengan pernyataan bahwa “masa depan yang selalu aktif tidak bisa dihindari”
Gunakan open source, bayar layanan yang tidak menambang data, dan dukung startup yang etis
Saya pikir kita butuh Mobile Linux sebagai pengganti Android
Individu, bukan perusahaan, harus punya kendali penuh atas perangkat dan perangkat lunaknya
Jangan tertipu oleh kenyamanan layanan gratis; kita harus memilih dengan uang kita
Pada akhirnya, orang-orang memilih status quo
Istilah “kesadaran konteks” pada akhirnya hanyalah ungkapan lain untuk pengawasan
Orang-orang akan makin menganggap wajar membawa Big Brother kecil di saku mereka
Tetapi kebanyakan hanya pasrah dan puas dengan solusi kecil di tingkat individu
Saya juga pernah ikut mendorong legislasi privasi, tetapi tidak ada yang terjadi karena publik tidak peduli
Bahkan tanpa otomatisasi LLM pun, pengawasan sudah menjadi kenyataan
Sekalipun berjalan secara lokal, asisten yang selalu mendengarkan tetap merupakan pelanggaran privasi
Saat teman datang berkunjung, mereka pasti akan merasa tidak nyaman mengetahui percakapan mereka bisa direkam
Tanpa speaker diarization yang sempurna, sistem seperti ini tidak akan pernah benar-benar terasa aman
Semua anggota keluarga berbagi memory pool yang sama, dan ini tetap merupakan masalah privasi yang belum terselesaikan
Ke depannya mereka berencana mencoba penandaan memori per individu lewat model STT berbasis identifikasi pembicara
Katanya produk ini akan diluncurkan akhir tahun ini, tetapi bahkan foto perangkat nyatanya pun belum ada
Desain situs webnya juga terlihat seadanya, dan pendanaannya pun tampak terbatas
Saya khawatir pada akhirnya perangkat seperti ini justru akan disalahgunakan para peretas sebagai alat anti-privasi
Mereka telah menampilkan foto nyata di proses pembuatan prototipe
Dibanding iklan yang tampil terang-terangan, bias rekomendasi implisit di dalam model justru lebih berbahaya
Bahkan jika pertanyaan yang sama diberikan ke ChatGPT, Claude, dan Perplexity, tingkat kecocokan 5 rekomendasi teratas hanya sekitar 40%
Korelasinya dengan peringkat pencarian Google juga hampir tidak ada
Pada akhirnya, produk apa yang direkomendasikan bergantung pada keputusan internal model yang tidak transparan
Saya tidak memahami daya tarik asisten AI yang selalu aktif
Terlepas dari privasi, saya merasa perangkat seperti ini akan melemahkan kendali saya atas hidup saya sendiri
Jika itu adalah asisten on-demand yang hanya aktif saat dibutuhkan, mungkin saya bisa menerimanya, tetapi otomatisasi yang berlebihan justru bisa melemahkan kemampuan berpikir manusia
Ini bisa berubah menjadi lautan drone pengawas yang dikemas sebagai “teman AI”
Bukannya maju bersama, kita justru berputar dalam perlombaan masing-masing untuk merebut keju sendiri
Skenario satir interaksi AI seperti “bertanya apakah ada telur lalu tetangga datang membawa telur” terasa menarik
Adegan ketika AI yang dilatih dari data percakapan manusia makin lama justru menyelesaikan ucapan manusia, lalu akhirnya beralih ke mode narasi dalam keheningan, sangat berkesan
Sayang sekali artikel itu tidak menyebut Anthropic
Mereka saat ini membuat agen pemrograman yang paling unggul, dan merupakan inti dari asisten OpenClaw
Smart speaker yang selalu mendengarkan memiliki risiko privasi yang jauh lebih besar dibanding OpenClaw yang digunakan secara sengaja