Modell
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Köra LLMs lokalt med WebGPU
Kör kraftfulla AI-modeller som Llama 3 och Gemma direkt i din webbläsare med hjälp av WebGPU.
Systemkrav
Kräver en GPU-aktiverad enhet och en modern webbläsare (Chrome/Edge 113+).
Lokala LLM FAQ
Är min data privat?
Ja, modellen körs helt på din enhet. Ingen data skickas till någon server.
Varför går det långsamt?
Prestanda beror på din GPU. Initiala laddningstider kan vara långa eftersom modellvikterna cachelagras.