Lokaler LLM-Läufer

Führen Sie KI-Modelle mithilfe von WebGPU privat in Ihrem Browser aus.

100% Private (No Server Uploads)
Modell
Initializing...
👋 Hi! I'm a local AI running entirely in your browser. Select a model and start chatting!

Note: First load requires downloading model weights (1-4GB). Please be patient.

Lokales Ausführen von LLMs mit WebGPU

Führen Sie mithilfe von WebGPU leistungsstarke KI-Modelle wie Llama 3 und Gemma direkt in Ihrem Browser aus.

Systemanforderungen

Erfordert ein GPU-fähiges Gerät und einen modernen Browser (Chrome/Edge 113+).

Lokale LLM-FAQ

Sind meine Daten privat?

Ja, das Modell läuft vollständig auf Ihrem Gerät. Es werden keine Daten an einen Server gesendet.

Warum ist es langsam?

Die Leistung hängt von Ihrer GPU ab. Die anfänglichen Ladezeiten können lang sein, da die Modellgewichte zwischengespeichert werden.