Lokale LLM-loper

Voer AI-modellen privé uit in uw browser met behulp van WebGPU.

100% Private (No Server Uploads)
Model
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

LLM's lokaal uitvoeren met WebGPU

Voer krachtige AI-modellen zoals Llama 3 en Gemma rechtstreeks in uw browser uit met behulp van WebGPU.

Systeemvereisten

Vereist een GPU-apparaat en een moderne browser (Chrome/Edge 113+).

Veelgestelde vragen over lokale LLM

Zijn mijn gegevens privé?

Ja, het model draait volledig op jouw toestel. Er worden geen gegevens naar een server verzonden.

Waarom is het langzaam?

Prestaties zijn afhankelijk van uw GPU. De initiële laadtijden kunnen lang zijn omdat de modelgewichten in de cache worden opgeslagen.