GeekNews Terbaru Komentar Arsip
◀ Tahun sebelumnya | ◁ Bulan sebelumnya | << Minggu sebelumnya | < Hari sebelumnya | 2026-02-23 | Hari berikutnya > | Minggu berikutnya >> | Bulan berikutnya ▷
21
 

CXMT Tiongkok menekan Samsung dan SK dalam persaingan HBM4 lewat pasokan DDR4 setengah harga

(koreaherald.com)
CXMT menekan pasar DRAM lama dengan DDR4 setengah harga, sementara ekspansi HBM dan DRAM pemain memori Tiongkok meningkatkan tekanan pada Samsung dan SK hynix.
3 poin oleh GN⁺ 2026-02-23 | 1 komentar
22
 

zclaw - Asisten AI pribadi yang berjalan di ESP32 dalam 888KB

(github.com/tnm)
zclaw adalah asisten AI ultra-ringan untuk ESP32 yang menghadirkan kontrol bahasa alami, integrasi LLM, dan firmware lengkap di bawah 888KiB.
10 poin oleh GN⁺ 2026-02-23 | 1 komentar
23
 

Blacklist AI uBlock

(github.com/alvi-se)
Blacklist open source untuk uBlock Origin ini memblokir content farm buatan AI agar hasil pencarian tidak dipenuhi situs penuh iklan dan informasi meragukan.
6 poin oleh GN⁺ 2026-02-23 | 1 komentar
24
 

Situs yang Menghidupkan Kembali Game Multiplayer Mati, GameDate

(gamedate.org)
Platform komunitas ini membantu menghidupkan kembali game multiplayer lama dengan mengatur sesi bermain, merekrut pemain, dan melacak event secara real-time.
1 poin oleh GN⁺ 2026-02-23 | 1 komentar
25
 

"Claws" menurut Andrej Karpathy

(simonwillison.net)
Claws diposisikan sebagai lapisan orkestrasi baru di atas agen LLM, dengan implementasi ringan seperti NanoClaw dan fokus pada agen AI personal yang persisten dan otonom.
6 poin oleh GN⁺ 2026-02-23 | 1 komentar
26
 

Cara Taalas ‘mencetak’ LLM ke atas chip

(anuragk.com)
Taalas menanamkan bobot LLM langsung ke transistor silikon pada chip ASIC untuk menghilangkan bottleneck memori GPU dan mempercepat inferensi secara drastis.
23 poin oleh GN⁺ 2026-02-23 | 5 komentar
27
 

Semua Perusahaan Pembuat Asisten AI Kini Adalah Perusahaan Iklan

(juno-labs.com)
Perusahaan pembuat asisten AI makin bergantung pada iklan, sehingga AI lokal on-device disebut sebagai satu-satunya cara melindungi data privat pengguna.
4 poin oleh GN⁺ 2026-02-23 | 1 komentar
28
 

ntransformer - Mesin inferensi NVMe-to-GPU untuk menjalankan Llama 3.1 70B di satu RTX 3090

(github.com/xaskasdf)
Mesin inferensi LLM berbasis C++/CUDA ini memungkinkan Llama 70B berjalan di satu RTX 3090 dengan streaming langsung NVMe-to-GPU dan caching adaptif 3 tingkat.
15 poin oleh GN⁺ 2026-02-23 | 1 komentar
GeekNews | Tentang Syarat Privasi Kontak
GeekNews adalah platform berita teknologi yang mengkurasi kabar terbaru tentang teknologi dan AI.