Modell
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!
Note: First load requires downloading model weights (1-4GB). Please be patient.
Note: First load requires downloading model weights (1-4GB). Please be patient.
Lokales Ausführen von LLMs mit WebGPU
Führen Sie mithilfe von WebGPU leistungsstarke KI-Modelle wie Llama 3 und Gemma direkt in Ihrem Browser aus.
Systemanforderungen
Erfordert ein GPU-fähiges Gerät und einen modernen Browser (Chrome/Edge 113+).
Lokale LLM-FAQ
Sind meine Daten privat?
Ja, das Modell läuft vollständig auf Ihrem Gerät. Es werden keine Daten an einen Server gesendet.
Warum ist es langsam?
Die Leistung hängt von Ihrer GPU ab. Die anfänglichen Ladezeiten können lang sein, da die Modellgewichte zwischengespeichert werden.