Model
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
LLM's lokaal uitvoeren met WebGPU
Voer krachtige AI-modellen zoals Llama 3 en Gemma rechtstreeks in uw browser uit met behulp van WebGPU.
Systeemvereisten
Vereist een GPU-apparaat en een moderne browser (Chrome/Edge 113+).
Veelgestelde vragen over lokale LLM
Zijn mijn gegevens privé?
Ja, het model draait volledig op jouw toestel. Er worden geen gegevens naar een server verzonden.
Waarom is het langzaam?
Prestaties zijn afhankelijk van uw GPU. De initiële laadtijden kunnen lang zijn omdat de modelgewichten in de cache worden opgeslagen.