Client-Side Only • Secure

Jalankan LLM Lokal

Jalankan model AI secara pribadi di browser Anda menggunakan WebGPU.

100% Private (No Server Uploads)
Model
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Menjalankan LLM Secara Lokal dengan WebGPU

Alat ini menggunakan WebAssembly dan WebGPU untuk menjalankan model AI langsung di kartu grafis Anda. Tidak ada data yang meninggalkan perangkat Anda.

Persyaratan Sistem

Anda memerlukan browser modern (Chrome/Edge 113+) dan GPU dengan setidaknya 4GB VRAM.

Pertanyaan Umum

Apakah ini benar-benar pribadi?

Ya. Bobot model diunduh ke cache browser Anda, dan semua komputasi terjadi di perangkat keras lokal Anda.

Mengapa pemuatan pertama lambat?

Browser perlu mengunduh bobot model (sekitar 1GB-4GB). Kunjungan berikutnya akan instan.