Lokal LLM Runner

Kör AI-modeller privat i din webbläsare med WebGPU.

100% Private (No Server Uploads)
Modell
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Köra LLMs lokalt med WebGPU

Kör kraftfulla AI-modeller som Llama 3 och Gemma direkt i din webbläsare med hjälp av WebGPU.

Systemkrav

Kräver en GPU-aktiverad enhet och en modern webbläsare (Chrome/Edge 113+).

Lokala LLM FAQ

Är min data privat?

Ja, modellen körs helt på din enhet. Ingen data skickas till någon server.

Varför går det långsamt?

Prestanda beror på din GPU. Initiala laddningstider kan vara långa eftersom modellvikterna cachelagras.